kafka groupid在哪

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kafka groupid在哪相关的知识,希望对你有一定的参考价值。

情况是这样的,在我们系统中有多个Consumer的客户端(客户端个数是不确定的,因为在系统工作过程中有的业务节点会脱离,有些业务节点会增加进来),Producer也有多个。但是Producer发送的消息种类只有一种,所以topic只创建了一个, 消息量很大,所以使用了多个Consumer来处理。现在想实现如下的订阅/推送效果,多个Producer进行消息的推送,例如消息X1、X2、X3、X4、X5.。。。。。。然后由多个Consumer分别进行拉去,Consumer1拉取到:X1、X4、X7。。。Consumer2拉取到:X2、X5、X8.。。。。。。。。如此类推 参考技术A 进入zookeeper客户端:
zkCli.sh -server localhost:42182
注:这里我配的zk端口是42182,默认为2181,可根据情况自行修改。
进入客户端执行:
[zk: localhost:42182(CONNECTED) 0] ls /consumers
在consumers会看到你已经注册过的group信息

Apache Kafka 在哪​​里设置最大消息大小?

【中文标题】Apache Kafka 在哪​​里设置最大消息大小?【英文标题】:Where to set maximum message size in Apache Kafka? 【发布时间】:2018-10-16 21:02:34 【问题描述】:

我可以在哪个文件中增加 Kafka 的最大消息大小? (我正在发送String、byte[]的记录,当我发送770kb的byte[]时,Kafka不发送消息)

【问题讨论】:

这个问答可能完全解释了它:***.com/questions/21020347/… - 它适用于 Kafka 0.8,但我相信这对于较新版本的 Kafka 仍然是正确的。让我们知道这是否有效,然后我可以将其标记为重复。 (这很好,它只是将其他有同样问题的人指向正确的问题) @ErwinBolwidt 我在生产者中将replica.fetch.max.bytes 设置为1000000,将max.request.size 设置为1000000,在消费者中将max.partition.fetch.bytes 设置为1000000,但消息仍然不是发送 还有message.max.bytes ? 重复***.com/questions/21020347/… How can I send large messages with Kafka (over 15MB)?的可能重复 【参考方案1】:

在 kafka 0.11.0 中需要设置以下四个配置选项

代理配置选项 (details):

    message.max.bytes - Kafka 允许的最大记录批量大小。

    replica.fetch.max.bytes - 尝试为每个分区获取的消息字节数。

生产者配置选项(details):

    max.request.size - 请求的最大大小(以字节为单位)。建议将此值与 (message.max.bytes) 匹配。

消费者配置选项(details):

    max.partition.fetch.bytes - 服务器返回的每个分区的最大字节数。应该大于 max.message.size 以便消费者可以读取代理发送的最大消息。

【讨论】:

以上是关于kafka groupid在哪的主要内容,如果未能解决你的问题,请参考以下文章

kafka的consumer.properties的group.id到底有啥用

查询订阅某topic的所有consumer group(Java API)

SparkSpark kafka because consumer rebalance same group id joined different streaming

华为kafka安全版重置group中的topic offset不生效问题

Kafka 实现动态goupId 实现广播消息

kafka consumer.poll方法会不会阻塞