filebeat到kafka日志无法传输
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了filebeat到kafka日志无法传输相关的知识,希望对你有一定的参考价值。
阿里云服务器
现象
1:查看filebeat日志
[[email protected] bin]$ tail -n 20 /var/log/filebeat/filebeat
2017-03-01T14:52:25+08:00 WARN producer/broker/0 state change to [closing] because dial tcp: lookup iZm5e0zxx on 10.2xx.xx.x1x:53: no such host
2:另外一台服务器可以看到有topic产生但是同样无法消费
[[email protected] bin]$ ./kafka-topics.sh --list --zookeeper localhost:2181 filebeat-log test
[[email protected] bin]$ ./kafka-console-consumer.sh --zookeeper localhost:2181 --topic filebeat-log Using the ConsoleConsumer with old consumer is deprecated and will be removed in a future major release. Consider using the new consumer by passing [bootstrap-server] instead of [zookeeper].
说明:如果日志传输成功,上述命令会有日志输出
第二个应该不属于报错,应该是版本警告。
解决办法:
在filebeat端修改hosts即可
[[email protected] bin]$ sudo vim /etc/hosts kafka-ip kafka-hostname
总结:不明白为什么filebeat要解析到主机名,但这样总算可行了
本文出自 “随风” 博客,请务必保留此出处http://358778493.blog.51cto.com/11386071/1902990
以上是关于filebeat到kafka日志无法传输的主要内容,如果未能解决你的问题,请参考以下文章
filebeat+logstash+elasticsearch收集haproxy日志