日志采集Flume配置

Posted 闭关苦炼内功

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了日志采集Flume配置相关的知识,希望对你有一定的参考价值。

Flume直接读log日志的数据,log日志的格式是app.yyyy-mm-dd.log

Flume的具体配置

在/opt/module/flume/conf目录下创建file-flume-kafka.conf文件
[hadoop@hadoop102 conf]$ vim file-flume-kafka.conf

在文件配置如下内容

#为各组件命名
a1.sources = r1
a1.channels = c1

#描述source
a1.sources.r1.type = TAILDIR
a1.sources.r1.filegroups = f1
a1.sources.r1.filegroups.f1 = /opt/module/applog/log/app.*
a1.sources.r1.positionFile = /opt/module/flume/taildir_position.json
a1.sources.r1.interceptors =  i1
a1.sources.r1.interceptors.i1.type = com.atguigu.flume.interceptor.ETLInterceptor$Builder

#描述channel
a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c1.kafka.bootstrap.servers = hadoop102:9092,hadoop103:9092
a1.channels.c1.kafka.topic = topic_log
a1.channels.c1.parseAsFlumeEvent = false

#绑定source和channel以及sink和channel的关系
a1.sources.r1.channels = c1

注意:
com.atguigu.flume.interceptor.ETLInterceptor是自定义的拦截器的全类名。
需要根据用户自定义的拦截器做相应修改。

以上是关于日志采集Flume配置的主要内容,如果未能解决你的问题,请参考以下文章

日志采集Flume配置

日志采集Flume配置选择

日志采集框架Flume

使用Flume采集日志数据到HDFS中

日志采集框架Flume的安装及使用

flume:spooldir采集日志,kafka输出的配置问题