004- Flume Source之Kafka

Posted BearData

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了004- Flume Source之Kafka相关的知识,希望对你有一定的参考价值。

Kafka Source是指Apache Kafka消费者从Kafka主题中读取消息,如果有多个Kafka Source运行,则可以将他们配置在同一个消费组里面。

对于线上业务系统来说,有的时候需要对大量的数据进行统计,如果直接将数据保存到本地文件(例如使用log4j)可能会拖慢线上系统。那么,最好的方式是将大量的数据通过jms(例如:kafka)发送到消息服务器,消息中间件后面再对接flume来完成数据统计等需求。

接下来,我们来介绍一下flume 的kafka source。

一,属性

【004】- Flume Source之Kafka

二,配置

#

agent.sources = a1

#

agent.channels = c1

#

agent.sinks = k1

# define source

agent.sources.a1.type = org.apache.flume.source.kafka.KafkaSource

agent.sources.a1.channels = c1

agent.sources.a1.batchSize = 5000

agent.sources.a1.batchDurationMillis = 2000

agent.sources.a1.kafka.bootstrap.servers = bigdata000:6667,bigdata002:6667

agent.sources.a1.kafka.topics = beardata

agent.sources.a1.kafka.consumer.group.id = beardata

# define channel

agent.channels.c1.type = memory

# define sink

agent.sinks.k1.type = logger

agent.sinks.k1.maxBytesToLog = 1024

agent.sinks.k1.channel = c1

#bin/flume-ng agent --conf conf --conf-file conf/kafka-source.conf --name agent -Dflume.root.logger=INFO,console

三,测试

启动程序,并给kafka的beardata主题发送消息

【004】- Flume Source之Kafka

我们在Flume控制台中可以看到输出了我们订阅的主题的消息

以上就是Flume Kafka Source,下一篇我们将介绍Flume 自定义 Source。



长按二维码,关注BearData

以上是关于004- Flume Source之Kafka的主要内容,如果未能解决你的问题,请参考以下文章

005- Flume Source之Custom

Flume高级组件之Source Interceptors及项目实践

002- Flume Source之TailDir

Flume之核心架构深入解析

Flume之核心架构深入解析

Hadoop实战-Flume之Source replicating(十四)