技术分享|kafka 协议分析 基础篇

Posted 擎创夏洛克AIOps

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了技术分享|kafka 协议分析 基础篇相关的知识,希望对你有一定的参考价值。

Kafka 作为夏洛克系统中关键的一环,它的效率和稳定性尤为重要。天天跟 Kafka打交道,工程师们的实用心得那真是多 ——


Kafka作为分布式消息组件被广泛使用,官方也提供了非常易用的各语言版本的client。由于系统的异构性,我们使用了不同语言的client生产和消费消息。实际使用的过程中,发现有生产了消息却消费不到的情况。由于client屏蔽了很多底层细节,所以通过网络抓包去分析数据才是解决问题的关键。要分析网络数据包就必须了解Kafka通讯协议。

(PS:本文是假定你对Kafka的基本概念已经了解,特别是topic,partition,broker和leader)


协议基础


要想分析和使用kafka协议,我们必须要事先弄清楚协议的基础理论。本文主要介绍这些基础概念,后面文章会陆续介绍kafka的low level api和hight level api。



TCP


kafka协议是基于tcp的

消息体全部由后面介绍的3种类型的数据组成

对于同一tcp链接,服务端会按序响应请求(所以client应采用non-blocking IO模型以提高效率)



Partition


topic里的数据是被分配到多个partition上存储的,每个partition又会有N-1个备份(注意:N>=1,N=1表示没有备份)。将数据分片和并备份存储,即提高了效率和又保证了安全性,类似理论在大部分的分布式系统中都有体现。


数据要被配到哪个partition上存储,是由生产者客户端(producer client)决定的,而不是kafka服务器(broker)决定的。这种设计使得开发者自由度更高,另一方面也要求客户端必须决定分区策略,大部分情况下会使用:(1)生产者可以通过轮询或随机的方式向所有partition写入数据,以保证数据被平均分配到了每个partition上。(2)生产者也可以通过数据的Key值来计算(例如某种hash值)应该路由到哪个partition上。分区策略可以根据实际需求来,为了某些特殊的需求,甚至可以将所有数据只写到一个partition上。


与生产者类似,从哪个partition上消费消息,是由消费者客户端(consumer client)指定的。换言之,要想获取到topic的所有消息,必须同时和所有partition位于的broker建立链接来消费消息。




Batching


kafka支持批处理请求,所以尽量将小的请求批量处理以提高效率。对此笔者有深刻的体验:服务器上有1000多个topic,每个topic平均3个partition。需求是要获取所有topic partition的当前offset。如果为每个partition发送一次offset请求,那就是3000多次请求,一共耗时2分钟左右。但是如果一次请求获取所有partition的offset,则耗时不到2秒。



Versioning


所有api都有一个版本号参数,版本号从0开始。需要使用与服务器对应的版本api请求,如果发送服务器不支持的版本,则请求会被拒绝。



Protocol Primitive Types


协议中的请求和响应都由下面3种类型的数据组成。


定长基本类型: int8, int16, int32, int64

变长基本类型:bytes, string。string由一个表示长度的数字N(int16)和N个字符组成。bytes类似,也是由一个表示长度的数字N(int32)和N个字符组成。数字是有符号的,-1表示null。

数组:由表示个数的数字N(int32)和N个重复结构体组成,单个结构体是上面2种基本类型的组合。



Request & Response


请求和响应的前4个字节都是一个表示请求体或响应体多大的数字:


RequestOrResponse => Size (RequestMessage | ResponseMessage)  

message_size => int32  

RequestMessage | ResponseMessage


Field 长度 含义
message_size 4字节 message_size给出了后续请求或响应消息的字节(bytes)长度。客户端可以先读取4字节的长度N,然后读取并解析后续的N字节请求内容。

注意:后面介绍中将不会再专门列出message_size域,默认在头部包含该域值



Request Header


所有请求都具有相同格式的请求头


RequestMessage => api_key api_version correlation_id client_id  

api_key => int16  

api_version => int16  

correlation_id => int32  

client_id => string  

MetadataRequest | ProduceRequest | FetchRequest | ListOffsetRequest |......


Field 长度 描述
api_key 2字节 API Code
api_version 2字节 API 版本号
correlation_id 4字节 自定义消息id (response中会将该值原样返回)
client_id 2字节+N 自定义ClientId



Response Header


所有响应都具有相同格式的响应头


ResponseMessage => correlation_id  

correlation_id => int32  

MetadataResponse | ProduceResponse | FetchResponse | ListOffsetResponse |......


Field 长度 描述
correlation_id 4字节 自定义消息id(request中的correlation_id)



点击下方“阅读原文”,可看到作者更多相关技术分享。




夏洛克 AIOps

Make Data Think

人工智能 | 机器学习 | IT运维



以上是关于技术分享|kafka 协议分析 基础篇的主要内容,如果未能解决你的问题,请参考以下文章

HTTP协议基础及报文抓包分析

消息队列基础 RabbitMQ与AMQP协议详解——超大规模高可用OpenStack核心技术深入解析系列

互联网+技术Flume+Kafka+Storm+Redis实时分析系统基本架构

猎聘网架构中间件负责人:基于Flume+Kafka+ Elasticsearch+Storm的海量日志实时分析平台

07V8第24篇技术分享|简单代码审计带你基础入门XSS

07V8第25篇技术分享|简单代码审计带你基础入门XSS