kafka offset的存储

offset即消费消息的偏移值,记录了kafka每个consumergroup的下一个需要读取消费位置,保障其消息的消费可靠性。

1.旧版本offset保存

kafka0.8.1.1以前,offset保存在zk中,存放在/consumers节点下。但是由于频繁访问zk,zk需要一个一个节点更新offset,不能批量或分组更新,导致offset更新成了瓶颈。后续两个过渡版本增加了参数“offsets.storage”,该参数可配置为“zookeeper”或“kafka”分别表示offset的保持位置在zk或是broker,默认保留在zk,0.9版本以后offset就默认保存在broker下。若配置的“kafka”,当设置了“dual.commit.enabled”参数时,offset仍然可以提交到zk。
zk中保存offset结构为:

/consumers/[group_id]/offsets/[topic]/[broker_id-partition_id] --> offset_counter_value

注意:由于kafka对客户端client向下兼容,低版本的client仍然能够通过链接zk消费数据,并提交offset数据,即使broker版本高于0.9,提交的offset仍然保存在zk;此时仍然存在offset更新瓶颈问题,所以建议尽量使用高版本client,通过链接broker方式消费数据。

例如:kafka broker版本2.6.0,consumer版本0.8.2.1:

//broker
../libs/kafka_2.13-2.6.0.jar
//consumer依赖
<dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>0.8.2.1</version>
</dependency>

构建consumer:

public class Test {
   private ConsumerConnector connector() {
        Properties props = new Properties();
        props.put("zookeeper.connect", "127.0.0.1:2181");
        props.put("group.id", "test_group1");
        props.put("zookeeper.session.timeout.ms", "10000");
        props.put("zookeeper.sync.time.ms", "1000");
        props.put("auto.commit.interval.ms", "1000");
        ConsumerConfig config = new ConsumerConfig(props);
        return Consumer.createJavaConsumerConnector(config);
    }

    private void consumer() {
        String topic = "test1";
        ConsumerConnector connector = this.connector();
        Map<String, Integer> map = new HashMap();
        map.put(topic, 1);
        Map<String, List<KafkaStream<byte[], byte[]>>> topic2stream = connector.createMessageStreams(map);
        KafkaStream<byte[], byte[]> stream = (KafkaStream) ((List) topic2stream.get(topic)).get(0);
        ConsumerIterator<byte[], byte[]> iterator = stream.iterator();
        while (iterator.hasNext()) {
            MessageAndMetadata messageAndMetadata = iterator.next();
            System.out.println(messageAndMetadata.partition() + ", " + new String((byte[]) messageAndMetadata.message()));
        }
    }

    public static void main(String[] args) {
        new Test().consumer();
    }
}

启动消费者消费全部10条历史消息,查看zk下/consumer节点的消费者信息:

[zk: localhost:2181(CONNECTED) 0] get /consumers/test_group1/offsets/test1/0
6
[zk: localhost:2181(CONNECTED) 1] get /consumers/test_group1/offsets/test1/1
2
[zk: localhost:2181(CONNECTED) 2] get /consumers/test_group1/offsets/test1/2
2

可以看到group “test_group1”对topic “test1”的3个partition消费情况,offset分别为6,2,2。
这里kafka只记录了每个group的消费情况,没有对某一个consumer做单独记录。早期版本/ids节点记录consumer id信息,owner节点记录各个partition所属consumer信息

2.新版本offset保存

如上所述,新版本中offset由broker维护,offset信息由一个特殊的topic “ __consumer_offsets”来保存,offset以消息形式发送到该topic并保存在broker中。这样consumer提交offset时,只需连接到broker,不用访问zk,避免了zk节点更新瓶颈。
broker消息保存目录在配置文件server.properties中:

# A comma separated list of directories under which to store log files
log.dirs=/usr/local/var/lib/kafka-logs

该目录下默认包含50个以__consumer_offsets开头的目录,用于存放offset:

__consumer_offsets-0            __consumer_offsets-22           __consumer_offsets-36           __consumer_offsets-5
__consumer_offsets-1            __consumer_offsets-23           __consumer_offsets-37           __consumer_offsets-6
...

offset的存放位置决定于groupid的hash值,其获取方式:

Utils.abs(groupId.hashCode) % numPartitions

其中numPartitions由offsets.topic.num.partitions参数决定,默认值即50。以groupid “test-group”为例,计数其存储位置为:__consumer_offsets-12,当其消费全部10条数据后,使用命令查看该目录下消息记录:kafka-console-consumer --bootstrap-server localhost:9092 --topic __consumer_offsets --partition 12 --from-beginning --formatter 'kafka.coordinator.group.GroupMetadataManager$OffsetsMessageFormatter'

[test-group,test1,0]::OffsetAndMetadata(offset=6, leaderEpoch=Optional[0], metadata=, commitTimestamp=1605601180391, expireTimestamp=None)
[test-group,test1,2]::OffsetAndMetadata(offset=2, leaderEpoch=Optional[0], metadata=, commitTimestamp=1605601180391, expireTimestamp=None)
[test-group,test1,1]::OffsetAndMetadata(offset=2, leaderEpoch=Optional[0], metadata=, commitTimestamp=1605601180391, expireTimestamp=None)

该数据结构为以groupid-topic-partition作为key,value为OffsetAndMetadata,其中包含了offset信息。可以看到group“test-group”在topic“test1”的三个partition下offset值分别为6,2,2。同保存在zk数据一样,offset只记录groupid的消费情况,对于具体consumer是透明的。

那么offset具体被发送给哪个broker保存呢?
由上文可知,offset的存储分区是通过groupid的hash值取得的,那么offset发送的broker就是该分区的leader broker,这也符合kafka普通消息的发生逻辑。所以,每个group的offset都将发生到一个broker,broker中存在一个offset manager 实例负责接收处理offset提交请求,并返回提交操作结果。

参考:
https://wanwenli.com/kafka/2016/11/04/Kafka-Group-Coordinator.html
https://cwiki.apache.org/confluence/display/KAFKA/Offset+Management

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,588评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,456评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,146评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,387评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,481评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,510评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,522评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,296评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,745评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,039评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,202评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,901评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,538评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,165评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,415评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,081评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,085评论 2 352

推荐阅读更多精彩内容

  • 一、consumer特点 consumer不使用zk保存消费位移(offset),而是使用内部的消息队列。因为当数...
    ands999阅读 810评论 0 3
  • [TOC]Kafka中的每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到parti...
    tracy_668阅读 1,016评论 0 5
  • 序 本文主要来讲一个kafka的group coordinator。在kafka0.9.0版本的时候,开始启用了新...
    go4it阅读 10,085评论 1 4
  • Kafka中的每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中...
    伊凡的一天阅读 37,469评论 2 24
  • 黑色的海岛上悬着一轮又大又圆的明月,毫不嫌弃地把温柔的月色照在这寸草不生的小岛上。一个少年白衣白发,悠闲自如地倚坐...
    小水Vivian阅读 3,105评论 1 5