社区福利 | Kafka通过Flume传输数据到HBase
Posted HBase技术社区
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了社区福利 | Kafka通过Flume传输数据到HBase相关的知识,希望对你有一定的参考价值。
社区福利
↓
参与方式
截止到2018.11.23 00:00
留言点赞排名第一
获赠邓杰签名款
<<Kafka并不难学>>
亲,包邮喔
1.概述
对于数据的转发,Kafka是一个不错的选择。Kafka能够装载数据到消息队列,然后等待其他业务场景去消费这些数据,Kafka的应用接口API非常的丰富,支持各种存储介质,例如HDFS、HBase等。如果不想使用Kafka API编写代码去消费Kafka Topic,也是有组件可以去集成消费的。下面笔者将为大家介绍如何使用Flume快速消费Kafka Topic数据,然后将消费后的数据转发到HDFS上。
2.内容
在实现这套方案之间,可以先来看看整个数据的流向,如下图所示:
业务数据实时存储到Kafka集群,然后通过Flume Source组件实时去消费Kafka业务Topic获取数据,将消费后的数据通过Flume Sink组件发送到HDFS进行存储。
2.1 准备基础环境
按照上图所示数据流向方案,需要准备好Kafka、Flume、Hadoop(HDFS可用)等组件。
2.1.1 启动Kafka集群并创建Topic
Kafka目前来说,并没有一个批量的管理脚本,不过我们可以对kafka-server-start.sh脚本和kafka-server-stop.sh脚本进行二次封装。代码如下所示:
#! /bin/bash
# Kafka代理节点地址, 如果节点较多可以用一个文件来存储
hosts=(dn1 dn2 dn3)
# 打印启动分布式脚本信息
mill=`date "+%N"`
tdate=`date "+%Y-%m-%d %H:%M:%S,${mill:0:3}"`
echo [$tdate] INFO [Kafka Cluster] begins to execute the $1 operation.
# 执行分布式开启命令
function start()
{
for i in ${hosts[@]}
do
smill=`date "+%N"`
stdate=`date "+%Y-%m-%d %H:%M:%S,${smill:0:3}"`
ssh hadoop@$i "source /etc/profile;echo [$stdate] INFO [Kafka Broker $i] begins to execute the startup operation.;kafka-server-start.sh $KAFKA_HOME/config/server.properties>/dev/null" &
sleep 1
done
}
# 执行分布式关闭命令
function stop()
{
for i in ${hosts[@]}
do
smill=`date "+%N"`
stdate=`date "+%Y-%m-%d %H:%M:%S,${smill:0:3}"`
ssh hadoop@$i "source /etc/profile;echo [$stdate] INFO [Kafka Broker $i] begins to execute the shutdown operation.;kafka-server-stop.sh>/dev/null;" &
sleep 1
done
}
# 查看Kafka代理节点状态
function status()
{
for i in ${hosts[@]}
do
smill=`date "+%N"`
stdate=`date "+%Y-%m-%d %H:%M:%S,${smill:0:3}"`
ssh hadoop@$i "source /etc/profile;echo [$stdate] INFO [Kafka Broker $i] status message is :;jps | grep Kafka;" &
sleep 1
done
}
# 判断输入的Kafka命令参数是否有效
case "$1" in
start)
start
;;
stop)
stop
;;
status)
status
;;
*)
echo "Usage: $0 {start|stop|status}"
RETVAL=1
esac
启动Kafka集群后,在Kafka集群可用的情况下,创建一个业务Topic,执行命令如下:
# 创建一个flume_collector_data主题
kafka-topics.sh --create --zookeeper dn1:2181,dn2:2181,dn3:2181 --replication-factor 3 --partitions 6 --topic flume_collector_data
2.2 配置Flume Agent
然后,开始配置Flume Agent信息,让Flume从Kafka集群的flume_collector_data主题中读取数据,并将读取到的数据发送到HDFS中进行存储。配置内容如下:
# ------------------- define data source ----------------------
# source alias
agent.sources = source_from_kafka
# channels alias
agent.channels = mem_channel
# sink alias
agent.sinks = hdfs_sink
# define kafka source
agent.sources.source_from_kafka.type = org.apache.flume.source.kafka.KafkaSource
agent.sources.source_from_kafka.channels = mem_channel
agent.sources.source_from_kafka.batchSize = 5000
# set kafka broker address
agent.sources.source_from_kafka.kafka.bootstrap.servers = dn1:9092,dn2:9092,dn3:9092
# set kafka topic
agent.sources.source_from_kafka.kafka.topics = flume_collector_data
# set kafka groupid
agent.sources.source_from_kafka.kafka.consumer.group.id = flume_test_id
# defind hdfs sink
agent.sinks.hdfs_sink.type = hdfs
# specify the channel the sink should use
agent.sinks.hdfs_sink.channel = mem_channel
# set store hdfs path
agent.sinks.hdfs_sink.hdfs.path = /data/flume/kafka/%Y%m%d
# set file size to trigger roll
agent.sinks.hdfs_sink.hdfs.rollSize = 0
agent.sinks.hdfs_sink.hdfs.rollCount = 0
agent.sinks.hdfs_sink.hdfs.rollInterval = 3600
agent.sinks.hdfs_sink.hdfs.threadsPoolSize = 30
agent.sinks.hdfs_sink.hdfs.fileType=DataStream
agent.sinks.hdfs_sink.hdfs.writeFormat=Text
# define channel from kafka source to hdfs sink
agent.channels.mem_channel.type = memory
# channel store size
agent.channels.mem_channel.capacity = 100000
# transaction size
agent.channels.mem_channel.transactionCapacity = 10000
然后启动Flume Agent,执行命令如下:
# 在Linux后台执行命令
flume-ng agent -n agent -f $FLUME_HOME/conf/kafka2hdfs.properties &
2.3 向Kafka主题中发送数据
启动Kafka Eagle监控系统(执行ke.sh start命令),填写发送数据。如下图所示:
然后,查询Topic中的数据是否有被写入,如下图所示:
最后,到HDFS对应的路径查看Flume传输的数据,结果如下图所示:
3.Kafka如何通过Flume传输数据到HBase
3.1 创建新主题
创建一个新的Topic,执行命令如下:
# 创建一个flume_kafka_to_hbase主题
kafka-topics.sh --create --zookeeper dn1:2181,dn2:2181,dn3:2181 --replication-factor 3 --partitions 6 --topic flume_kafka_to_hbase
3.2 配置Flume Agent
然后,配置Flume Agent信息,内容如下:
# ------------------- define data source ----------------------
# source alias
agent.sources = kafkaSource
# channels alias
agent.channels = kafkaChannel
# sink alias
agent.sinks = hbaseSink
# set kafka channel
agent.sources.kafkaSource.channels = kafkaChannel
# set hbase channel
agent.sinks.hbaseSink.channel = kafkaChannel
# set kafka source
agent.sources.kafkaSource.type = org.apache.flume.source.kafka.KafkaSource
# set kafka broker address
agent.sources.kafkaSource.kafka.bootstrap.servers = dn1:9092,dn2:9092,dn3:9092
# set kafka topic
agent.sources.kafkaSource.kafka.topics = flume_kafka_to_hbase
# set kafka groupid
agent.sources.kafkaSource.kafka.consumer.group.id = flume_test_id
# set channel
agent.channels.kafkaChannel.type = org.aprache.flume.channel.kafka.KafkaChannel
# channel queue
agent.channels.kafkaChannel.capacity=10000
# transaction size
agent.channels.kafkaChannel.transactionCapacity=1000
# set hbase sink
agent.sinks.hbaseSink.type = asynchbase
# hbase table
agent.sinks.hbaseSink.table = flume_data
# set table column
agent.sinks.hbaseSink.columnFamily= info
# serializer sink
agent.sinks.hbaseSink.serializer=org.apache.flume.sink.hbase.SimpleAsyncHbaseEventSerializer
# set hbase zk
agent.sinks.hbaseSink.zookeeperQuorum = dn1:2181,dn2:2181,dn3:2181
3.3 创建HBase表
进入到HBase集群,执行表创建命令,如下所示:
hbase(main):002:0> create 'flume_data','info'
3.4 启动Flume Agent
接着,启动Flume Agent实例,命令如下所示:
# 在Linux后台执行命令
flume-ng agent -n agent -f $FLUME_HOME/conf/kafka2hbase.properties &
3.5 在Kafka Eagle中向Topic写入数据
然后,在Kafka Eagle中写入数据,如下图所示:
3.6 在HBase中查询传输的数据
最后,在HBase中查询表flume_data的数据,验证是否传输成功,命令如下:
hbase(main):003:0> scan 'flume_data'
预览结果如下所示:
4.总结
至此,Kafka中业务Topic的数据,经过Flume Source组件消费后,再由Flume Sink组件写入到HDFS,整个过程省略了大量的业务编码工作。如果实际工作当中不涉及复杂的业务逻辑处理,对于Kafka的数据转发需求,不妨可以试试这种方案。
5.结束语
这篇博客就和大家分享到这里,如果大家在研究学习的过程当中有什么问题,可以加群进行讨论或发送邮件给我,我会尽我所能为您解答,与君共勉!
HBase+Spark技术交流讨论
整合最优质的专家资源和技术资料会定期开展线下技术沙龙,专家技术直播,专家答疑活动公告:
1. 提问:
请到云栖社区HBase+Spark团队号
https://yq.aliyun.com/teams/382
或
http://hbase.group
问答区提问
2. 技术分享:
每周群直播视频及PDF:
https://yq.aliyun.com/teams/382/type_blog-cid_414-page_1
11月 群直播安排:
第1期:HBase多模式+Spark基本介绍 11月
第2期:HBase内核及能力 11月
第3期:Spark介绍及Spark多数据源分析 11月
第4期:Phoenix 基本介绍及二级索引 11月
3. 线下技术沙龙公告
11月17日,南京【中国HBase技术社区第八届MeetUp】 报名:http://www.huodongxing.com/event/4464965483800
12月1日,北京【阿里云栖开发者沙龙】- 玩转数据库技术! 报名:https://yq.aliyun.com/activity/779
以上是关于社区福利 | Kafka通过Flume传输数据到HBase的主要内容,如果未能解决你的问题,请参考以下文章