kafka consumer offset机制

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kafka consumer offset机制相关的知识,希望对你有一定的参考价值。

参考技术A kafka消息在分区中是按序一条一条存储的,假如分区中有10条消息,位移就是0-9,

consumer消费了5条消息,那么offset就是5,指向了下一条要消费的记录,consumer

需要向kafka汇报自己的位移数据,因为consumer是能够消费多个分区的,所以offset

的粒度是分区,consumer需要为分配给他的各分区分别提交offset信息。

从用户的角度来说,位移提交分为自动提交和手动提交,在consumer的角度来说,位移

分为同步提交和异步提交。

kafka内部有个topic叫 ‘__consumer_offsets’,offset提交就是往这个topic发送一条消息,

消息格式是key value形式,key是由 groupId、主题名、分区号组成,消息体是位移值

及用户自定义数据和时间戳等。还有2种特殊的格式,一种是用于保存 Consumer Group 

信息的消息,用于注册group,另一种是 用于删除 Group 过期位移和删除 Group 的消息。

当kafka集群种第一台consumer启动时,便会创建__consumer_offsets主题,默认50个

分区和3个副本。

当提交方式是自动提交时,就算是当前consumer的offset已经不更新,kafka还是会自动

定期的往__consumer_offsets发送位移消息,所以得对位移主题的消息做定期删除,

假如对于同一个key有2条A和B,A早于B发送,那么A就是属于过期消息。

compact有点类似jvm gc的标记-整理,把过期消息删掉,把剩下的消息排列在一起

Kafka 提供了专门的后台线程定期地巡检待Compact 的主题,看看是否存在满足条件的

可删除数据,这个线程叫Log Cleaner,当我们发现位移主题日志过多的时候,可以

检查一下是否是这个线程挂了导致的

enable.auto.commit 默认即是true,

auto.commit.interval.ms 默认是5秒,表示kafka每5秒自动提交一次位移信息。

自动提交会有消息重复消费的问题,因为他是间隔时间提交一次,假如在间隔期间,

发生了Rebalance ,在Rebalance 之后所有的消费者必须从当前最新的offset开始

继续消费,那么上一次自动提交到Rebalance 的这段时间消费的数据的位移并没有

提交,所以会重复消费,即时我们通过减少 auto.commit.interval.ms 的值来提高提交频率,

那也仅仅是缩小了重复消费的时间窗口,所以我们看看能不能通过手动提交来避免重复消费。

commitSync()是consumer的同步api,手动提交的好处自然是我们可以控制提交的时机

和频率,由于是同步api,是会阻塞至broker返回结果才会结束这个阻塞状态,对于系统

而言,自然不想发生这种不是由于资源的限制导致的阻塞。

commitAsync()是consumer的异步api,commitAsync()不会阻塞,因此不会影响consumer的

tps,但是他的问题在于他无法重试,因为是异步提交,当因为网络或者系统资源阻塞

导致提交失败,那么他重试的时候,在这期间,consumer可能已经消费好多条消息

并且提交了,所以此时的重试提交的offset已然不是最新值了并没有意义,我们可以通过

异步和同步提交相结合,我们使用同步提交来规避因为网络问题或者broker端的gc导致的

这种瞬时的提交失败,进而通过重试机制而提交offset,使用异步提交来规避提交时的阻塞

前面的commitSync()和commitAsync(),都是consumer poll消息,把这些消息消费完,

再提交最新的offset,如果poll的消息很多呢?消费时间较长,假如中间系统宕机,岂不是

得从头再来一遍,所以kafka提供分段提交的api

commitSync(Map<TopicPartition, OffsetAndMetadata>) 

 commitAsync(Map<TopicPartition, OffsetAndMetadata>)

假设我们poll了一秒钟的数据,有5000条,我们可以通过计数器,累计到100条,

便通过分段提交api向kafka提交一次offset。

以上是关于kafka consumer offset机制的主要内容,如果未能解决你的问题,请参考以下文章

Kafka 学习笔记之 High Level Consumer相关参数

Kafka Consumer Offset解析

kafka 消费者offset记录位置和方式

Flink当中使用kafka Consumer

kafka 关于offset的理解--关于__consumer_offsets分析

Kafka 中的 __consumer_offsets 和 _schema 主题有啥用?