flume采集数据直接存到hive中

Posted W~J~L

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了flume采集数据直接存到hive中相关的知识,希望对你有一定的参考价值。

记录一下自己前段时间解决的问题!

首先启动hadoop:

start-all.sh

然后就将hive中的这四个架包拷贝到flume的lib目录下:

拷贝过去:

cp /opt/hive/hcatalog/share/* /opt/flume/lib/

启动hive元数据服务,窗口不要关:

在hive中建表,根据你要采集的数据字段进行建表,并开启orc支持:

Hive命令行查询orc表时,需要激活以下配置,在hive中输入:

set hive.support.concurrency = true;
set hive.exec.dynamic.partition.mode = nonstrict;
set hive.txn.manager = org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;

接着就是开始配置你的flume文件,在添加输入文件的编码格式为GBK(主要还是取决于你文件的编码),不然会报错。配置如下:

开启flume:
./flume-ng agent -n a1 -c conf -f /opt/flume/conf/one.conf -Dflume.root.lodder=INFO,console
其中-Dflume.root.lodder=INFO,console可不要,是日志打印:

将待采集的数据发给到监控文件目录下:

Flume开始工作:

最后去hive表中查看结果:

OK,搞定!

下面是我在过程中遇到的一些问题:

ip地址为master(xx.xx.xx.xx)而不是127.0.0.1

这里将通道从源获取或提供给接收器的最大事件数值设置大一些,来满足你自己的需求。如果是100则会报错。

每天扣扣脑袋,敲敲代码,还是挺有意思的呢!

以上是关于flume采集数据直接存到hive中的主要内容,如果未能解决你的问题,请参考以下文章

日志采集框架Flume

日志采集框架Flume的安装及使用

日志采集框架Flume

flume安装与使用

Logstash和Flume-NG Syslog接收小测试

flumesqoopoozie