站長(zhǎng)資訊網(wǎng)
最全最豐富的資訊網(wǎng)站

Kafka日志存儲(chǔ)原理

引言

Kafka中的Message是以topic為基本單位組織的,不同的topic之間是相互獨(dú)立的。每個(gè)topic又可以分成幾個(gè)不同的partition(每個(gè)topic有幾個(gè)partition是在創(chuàng)建topic時(shí)指定的),每個(gè)partition存儲(chǔ)一部分Message。借用官方的一張圖,可以直觀地看到topic和partition的關(guān)系。
Kafka日志存儲(chǔ)原理

partition是以文件的形式存儲(chǔ)在文件系統(tǒng)中,比如,創(chuàng)建了一個(gè)名為page_visits的topic,其有5個(gè)partition,那么在Kafka的數(shù)據(jù)目錄中(由配置文件中的log.dirs指定的)中就有這樣5個(gè)目錄: page_visits-0, page_visits-1,page_visits-2,page_visits-3,page_visits-4,其命名規(guī)則為<topic_name>-<partition_id>,里面存儲(chǔ)的分別就是這5個(gè)partition的數(shù)據(jù)。

接下來(lái),本文將分析partition目錄中的文件的存儲(chǔ)格式和相關(guān)的代碼所在的位置。

Partition的數(shù)據(jù)文件

Partition中的每條Message由offset來(lái)表示它在這個(gè)partition中的偏移量,這個(gè)offset不是該Message在partition數(shù)據(jù)文件中的實(shí)際存儲(chǔ)位置,而是邏輯上一個(gè)值,它唯一確定了partition中的一條Message。因此,可以認(rèn)為offset是partition中Message的id。partition中的每條Message包含了以下三個(gè)屬性:

  • offset
  • MessageSize
  • data

其中offset為long型,MessageSize為int32,表示data有多大,data為message的具體內(nèi)容。它的格式和Kafka通訊協(xié)議中介紹的MessageSet格式是一致。

Partition的數(shù)據(jù)文件則包含了若干條上述格式的Message,按offset由小到大排列在一起。它的實(shí)現(xiàn)類為FileMessageSet,類圖如下:
Kafka日志存儲(chǔ)原理
它的主要方法如下:

  • append: 把給定的ByteBufferMessageSet中的Message寫(xiě)入到這個(gè)數(shù)據(jù)文件中。
  • searchFor: 從指定的startingPosition開(kāi)始搜索找到第一個(gè)Message其offset是大于或者等于指定的offset,并返回其在文件中的位置Position。它的實(shí)現(xiàn)方式是從startingPosition開(kāi)始讀取12個(gè)字節(jié),分別是當(dāng)前MessageSet的offset和size。如果當(dāng)前offset小于指定的offset,那么將position向后移動(dòng)LogOverHead+MessageSize(其中LogOverHead為offset+messagesize,為12個(gè)字節(jié))。
  • read:準(zhǔn)確名字應(yīng)該是slice,它截取其中一部分返回一個(gè)新的FileMessageSet。它不保證截取的位置數(shù)據(jù)的完整性。
  • sizeInBytes: 表示這個(gè)FileMessageSet占有了多少字節(jié)的空間。
  • truncateTo: 把這個(gè)文件截?cái)?,這個(gè)方法不保證截?cái)辔恢玫腗essage的完整性。
  • readInto: 從指定的相對(duì)位置開(kāi)始把文件的內(nèi)容讀取到對(duì)應(yīng)的ByteBuffer中。

我們來(lái)思考一下,如果一個(gè)partition只有一個(gè)數(shù)據(jù)文件會(huì)怎么樣?

  1. 新數(shù)據(jù)是添加在文件末尾(調(diào)用FileMessageSet的append方法),不論文件數(shù)據(jù)文件有多大,這個(gè)操作永遠(yuǎn)都是O(1)的。
  2. 查找某個(gè)offset的Message(調(diào)用FileMessageSet的searchFor方法)是順序查找的。因此,如果數(shù)據(jù)文件很大的話,查找的效率就低。

那Kafka是如何解決查找效率的的問(wèn)題呢?有兩大法寶:1) 分段 2) 索引。

數(shù)據(jù)文件的分段

Kafka解決查詢效率的手段之一是將數(shù)據(jù)文件分段,比如有100條Message,它們的offset是從0到99。假設(shè)將數(shù)據(jù)文件分成5段,第一段為0-19,第二段為20-39,以此類推,每段放在一個(gè)單獨(dú)的數(shù)據(jù)文件里面,數(shù)據(jù)文件以該段中最小的offset命名。這樣在查找指定offset的Message的時(shí)候,用二分查找就可以定位到該Message在哪個(gè)段中。

為數(shù)據(jù)文件建索引

數(shù)據(jù)文件分段使得可以在一個(gè)較小的數(shù)據(jù)文件中查找對(duì)應(yīng)offset的Message了,但是這依然需要順序掃描才能找到對(duì)應(yīng)offset的Message。為了進(jìn)一步提高查找的效率,Kafka為每個(gè)分段后的數(shù)據(jù)文件建立了索引文件,文件名與數(shù)據(jù)文件的名字是一樣的,只是文件擴(kuò)展名為.index。
索引文件中包含若干個(gè)索引條目,每個(gè)條目表示數(shù)據(jù)文件中一條Message的索引。索引包含兩個(gè)部分(均為4個(gè)字節(jié)的數(shù)字),分別為相對(duì)offset和position。

  • 相對(duì)offset:因?yàn)閿?shù)據(jù)文件分段以后,每個(gè)數(shù)據(jù)文件的起始o(jì)ffset不為0,相對(duì)offset表示這條Message相對(duì)于其所屬數(shù)據(jù)文件中最小的offset的大小。舉例,分段后的一個(gè)數(shù)據(jù)文件的offset是從20開(kāi)始,那么offset為25的Message在index文件中的相對(duì)offset就是25-20 = 5。存儲(chǔ)相對(duì)offset可以減小索引文件占用的空間。
  • position,表示該條Message在數(shù)據(jù)文件中的絕對(duì)位置。只要打開(kāi)文件并移動(dòng)文件指針到這個(gè)position就可以讀取對(duì)應(yīng)的Message了。

index文件中并沒(méi)有為數(shù)據(jù)文件中的每條Message建立索引,而是采用了稀疏存儲(chǔ)的方式,每隔一定字節(jié)的數(shù)據(jù)建立一條索引。這樣避免了索引文件占用過(guò)多的空間,從而可以將索引文件保留在內(nèi)存中。但缺點(diǎn)是沒(méi)有建立索引的Message也不能一次定位到其在數(shù)據(jù)文件的位置,從而需要做一次順序掃描,但是這次順序掃描的范圍就很小了。

在Kafka中,索引文件的實(shí)現(xiàn)類為OffsetIndex,它的類圖如下:
Kafka日志存儲(chǔ)原理

主要的方法有:

  • append方法,添加一對(duì)offset和position到index文件中,這里的offset將會(huì)被轉(zhuǎn)成相對(duì)的offset。
  • lookup, 用二分查找的方式去查找小于或等于給定offset的最大的那個(gè)offset

小結(jié)

我們以幾張圖來(lái)總結(jié)一下Message是如何在Kafka中存儲(chǔ)的,以及如何查找指定offset的Message的。

Message是按照topic來(lái)組織,每個(gè)topic可以分成多個(gè)的partition,比如:有5個(gè)partition的名為為page_visits的topic的目錄結(jié)構(gòu)為:
Kafka日志存儲(chǔ)原理

partition是分段的,每個(gè)段叫LogSegment,包括了一個(gè)數(shù)據(jù)文件和一個(gè)索引文件,下圖是某個(gè)partition目錄下的文件:
Kafka日志存儲(chǔ)原理
可以看到,這個(gè)partition有4個(gè)LogSegment。

查找Message原理圖:
Kafka日志存儲(chǔ)原理
比如:要查找絕對(duì)offset為7的Message:

  1. 首先是用二分查找確定它是在哪個(gè)LogSegment中,自然是在第一個(gè)Segment中。
  2. 打開(kāi)這個(gè)Segment的index文件,也是用二分查找找到offset小于或者等于指定offset的索引條目中最大的那個(gè)offset。自然offset為6的那個(gè)索引是我們要找的,通過(guò)索引文件我們知道offset為6的Message在數(shù)據(jù)文件中的位置為9807。
  3. 打開(kāi)數(shù)據(jù)文件,從位置為9807的那個(gè)地方開(kāi)始順序掃描直到找到offset為7的那條Message。

這套機(jī)制是建立在offset是有序的。索引文件被映射到內(nèi)存中,所以查找的速度還是很快的。

一句話,Kafka的Message存儲(chǔ)采用了分區(qū)(partition),分段(LogSegment)和稀疏索引這幾個(gè)手段來(lái)達(dá)到了高效性。

 

Kafka使用jmxtrans+influxdb+grafana監(jiān)控JMX指標(biāo)  http://www.hospitaldelafe.com/Linux/2019-04/158037.htm

 

Kafka單機(jī)環(huán)境搭建簡(jiǎn)記  http://www.hospitaldelafe.com/Linux/2019-03/157651.htm

 

 

贊(0)
分享到: 更多 (0)
網(wǎng)站地圖   滬ICP備18035694號(hào)-2    滬公網(wǎng)安備31011702889846號(hào)
国产亚洲美女精品久久久久狼| 日韩精品高清在线| 91精品天美精东蜜桃传媒入口| 亚洲精品二区国产综合野狼| 国产精品成人啪精品视频免费| 日韩影院一级在线| 国产精品V亚洲精品V日韩精品 | 日韩精品无码中文字幕一区二区| 精品人妻潮喷久久久又裸又黄| 国产 精品 自在 线| 精品伊人久久大线蕉色首页| 中文字幕一区二区精品区| 日韩精品无码一本二本三本| 国产成人A人亚洲精品无码| 一本久久a久久精品亚洲| 三上悠亚日韩精品| 久久亚洲国产精品123区| 国产精品最新国产精品第十页 | 日韩色图在线观看| 国产福利精品视频| 杨幂精品国产专区91在线| 国产乱人伦偷精品视频免| 日韩制服丝袜在线| 亚洲国产成人精品青青草原| 99aiav国产精品视频| 久久久久久久国产精品电影| 久久精品加勒比中文字幕| 久久久久国产精品免费网站| 久久精品国1国二国三在| 国产成人精品免费久久久久| 久久久久久久久毛片精品| 亚洲国产精品国自产电影| 日韩精品无码一区二区三区不卡| 人人妻人人澡人人爽人人精品97 | 国产精品麻豆高清在线观看| 精品久久久久中文字幕日本| 日韩精品一区二区三区老鸭窝| 国产精品久久久久久久久免费| 亚洲精品福利你懂| 一级一级特黄女人精品毛片视频| 国产亚洲精品bv在线观看|