记录一下Kafka报错:timeout expired while fetching topic metadata

Posted ChinaManor

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了记录一下Kafka报错:timeout expired while fetching topic metadata相关的知识,希望对你有一定的参考价值。

引言

大家好,我是ChinaManor,直译过来就是中国码农的意思,我希望自己能成为国家复兴道路的铺路人,大数据领域的耕耘者,平凡但不甘于平庸的人。

步骤如下:
Kafka tool 连接node1:9092集群

  1. 使用 node1 node2 node3
# 在 windows HOSTS文件
192.168.88.161 node1 node1.itcast.cn
192.168.88.162 node2 node2.itcast.cn
192.168.88.163 node3 node3.itcast.cn
  1. 防火墙 windows 和 Linux ,杀毒软件是否关闭
  2. 在配置文件中

advertised.listeners=192.168.88.161:9092

  1. 重启 zookeeper 和 kafka

心路历程:

按照讲师的做法配置了一下,

一开始报的不是这个错,是unable to find any brokers,
查看Kaka日志,发现根本没起来
在这里插入图片描述
把配置里的advertised.listeners=192.168.88.161:9092删除
在这里插入图片描述
不报错了

节点只有一个,盲猜是id号没改
在这里插入图片描述
然后成功了,雀跃了一把
在这里插入图片描述

但还是报timeout expired while fetching topic metadata

由于我用的是utools的工具插件,打开 cmd ping node1 ping不通
在这里插入图片描述
重新改变一下顺序,终于成功了

结论是windows hosts的文件没改,连接不上.

以上是关于记录一下Kafka报错:timeout expired while fetching topic metadata的主要内容,如果未能解决你的问题,请参考以下文章

FlinkFlink exactly-once 报错 Timeout expired after 60000 milliseconds while awaiting InitProducerId(代码

FlinkFlink 写入 kafka 报错 Failed to send data to Kafka: Expiring 4 record(s) for 20001 ms has passed(代码

kafkaTimeout of 60000ms expired before the position for partition could be determined

Batch containing 1 record(s) expired due to timeout while requesting metadata from brokers

记录一次kafka的报错

连接池和 "Timeout expired"异常