Kafka中@KafkaListener不自动监听消费数据了

Posted 大亨•博

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Kafka中@KafkaListener不自动监听消费数据了相关的知识,希望对你有一定的参考价值。

Kafka中不自动消费的问题解决方案

查看源码

如果项目中有多个不同的topic需要消费,那么一定要注意@KafkaListener中id的配置,源码中如下

/**
	 * The unique identifier of the container managing for this endpoint.(管理此端点的容器的唯一标识符 )
	 * <p>If none is specified an auto-generated one is provided.
	 * @return the {@code id} for the container managing for this endpoint.
	 * @see org.springframework.kafka.config.KafkaListenerEndpointRegistry#getListenerContainer(String)
	 */
	String id() default "";

上边源码中提到了,id是容器的唯一标识符。

我自己遇到的问题
我之前的项目中就是因为有好几个不同的topic,不同的方法对应的注解@KafkaListener里边我直接写的(topics = { }, containerFactory = “kafkaListenerContainerFactory”),这两个参数,然后上边topic中放不同的名称就行,之前一点问题都没有。就在前两天的时候,突然kafka不自动实时消费了,找了好久的问题,服务器上三个集群kafka和zookeeper都启动了,集群状态也查看了,kafka在linux命令试了一下生产和消费消息也没问题(基本命令操作,请看最后边)。后来准备使用KafkaListenerEndpointRegistry这个类,可以手动控制启动和停止监听,这个类中需要配置id(不知道这个类的,可以参考这个 Little Coder)。写好之后,启动项目,正准备发送启动请求,结果一看已经在自动消费了,后来我就给每个方法的注解@KafkaListener配置上了不同的id参数@KafkaListener(topics = { }, containerFactory = “kafkaListenerContainerFactory”, id = “”),OK!至此监听自动不消费的问题解决了。

linux操作kafka基本命令

#注:执行这些命令之前,必须是在kafka目录下的bin文件夹中

# 查看集群状态
./kafka-topics.sh --describe --zookeeper

# 查看Topic
./kafka-topics.sh --list --zookeeper 10.0.5.245:2181,10.0.5.157:2181,10.0.5.158:2181

# 创建主题
./kafka-topics.sh --create --zookeeper 10.0.5.245:2181,10.0.5.157:2181,10.0.5.158:2181 --topic test --partitions 3 --replication-factor 1

# 向主题生产消息  CTRL+D结束写入内容
./kafka-console-producer.sh --broker-list 10.0.5.245:9092,10.0.5.157:9092,10.0.5.158:9092 --topic test

# 消费消息
./kafka-console-consumer.sh --bootstrap-server 10.0.5.157:9092 --topic test --from-beginning

自己工作中遇到的问题做的总结,希望对大家有帮助。最后愿工作中忙碌的你找机会抽空放松一下自己,不要累倒身体,加油把努力的人类们!!!

以上是关于Kafka中@KafkaListener不自动监听消费数据了的主要内容,如果未能解决你的问题,请参考以下文章

浅谈@KafkaListener工作流程

Spring Kafka 之 @KafkaListener 单条或批量处理消息

(8) KafkaListener注解

Spring @KafkaListener 和并发

Kafkalistener SpringBoot 故障保护

spring-kafka 监听器签名