腾讯云Logstash实战4-使用Logstash消费kafka数据并写入到Elasticsearch

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了腾讯云Logstash实战4-使用Logstash消费kafka数据并写入到Elasticsearch相关的知识,希望对你有一定的参考价值。

参考技术A Logstash的一个典型应用场景,就是消费kafka中的数据并且写入到Elasticsearch, 使用 腾讯云Logstash 产品,可以通过简单的配置快速地完成这一过程。

在“管道管理”页面,点击“新建管道”按钮,创建一个管道:

进入管道配置页面,点击“引用模板”按钮,同时引用“input-kafka”和“output-elasticsearch”两个模板:

在管道配置中,分别针对“input-kafka”和“output-elasticsearch”进行配置,一些关键的配置参数说明如下:

查看更多参数,可以参考 input-kafka

查看更多参数,可以参考 output-elasticsearch

在配置完管道后,点击“保存并部署”创建一个管道并自动部署:

在控制台查看Logstash的运行日志,如果没有ERROR级别的日志,则说明管道运行正常:

进入到output-elasticsearch中定义的输出端的ES集群对应的kibana页面,在Dev tools工具栏里查看索引是否存在,以及索引的文档数量是否正确:

以上是关于腾讯云Logstash实战4-使用Logstash消费kafka数据并写入到Elasticsearch的主要内容,如果未能解决你的问题,请参考以下文章

腾讯云Logstash实战5-读取COS中的日志文件并写入到Elasticsearch

Elasticsearch 6.4.3 logstash 及 ik中文分词器下载百度云

logstash实战input插件syslog

kubernetes集群中logstash无法正常启动采集数据

五分钟带你玩转docker(十三)实战elk环境——logstash搭建

五分钟带你玩转docker(十三)实战elk环境——logstash搭建