Apache NiFi之Kafka流数据到HBase

Posted 大数据从业者

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Apache NiFi之Kafka流数据到HBase相关的知识,希望对你有一定的参考价值。

一.说明

在大数据平台的业务场景中,处理实时kafka数据流数据,以成为必要的能力;此篇将尝试通过Apache NiFi来接入Kafka数据然后处理后存储之HBase

二.开拔

Ⅰ).配置ConsumeKafka_0_10

测试使用了kafka0.10版本,所以NiFi中也选择对于版本

  

a).选择ConsumeKafka_0_10

在Processor中搜索ConsumeKafka_0_10

  

技术图片

b).配置ConsumeKafka_0_10

1.Kafka Brokers: hostname1:9092,hostname2:9092:hostname3:9092
2.Topic Name(s): entry_index_nifi
3.Group ID: entry_index_nifi

  

 

技术图片

Ⅱ).配置PutHBaseJSON

a).选择PutHBaseJSON

在Processor中搜索PutHBaseJSON

  

 

技术图片

b).配置PutHBaseJSON

1.HBase Client Service: 选择匹配版本的HBaseClient
2.Table Name: 配置入库HBase表名
3.Row Identifier Field Name: 配置RowKey值
4.Column Family: 配置列簇

  

 

技术图片

c).选择HBase_1_1_2_ClientService

在Processor中搜索HBase_1_1_2_ClientService

  

 

技术图片

d).配置HBase_1_1_2_ClientService

1.Zookeeper Quorum: hostname1:2181,hostname2:2181,hostname3:2181
2.Zookeeper Client Port: 2181
3.Zookeeper ZNode Parent: /hbase

  

 

技术图片
技术图片

e).激活HBase_1_1_2_ClientService

技术图片

Ⅲ).启动服务

可以点击选择单个Processor启动,也可以在空白处点击流程启动

  

 

技术图片

Ⅳ).验证结果

a).Kafka源数据

./bin/kafak-console-consumer.sh --zookeeper hostname1:2181,hostname2:2181,hostname3:2181 ---topic entry_index_nifi

  

技术图片

b).HBase入库数据

scan ‘kafka.entry_index_nifi‘,{LIMIT=>10}

  

技术图片

三.HBase命令

## 创建表空间
create_namespace ‘kafka‘

## 查看表空间
list_namespace_tables ‘kafka‘

## 创建表
create ‘kafka.entry_index_nifi‘,‘cf1‘

## 查看表数据
scan ‘kafka.entry_index_nifi‘,{LIMIT=>10}

  

以上是关于Apache NiFi之Kafka流数据到HBase的主要内容,如果未能解决你的问题,请参考以下文章

Apache Nifi 将文件移动到新的 hdfs 文件夹以获取小于当前日期的文件

如何在Apache NIFI中应用机器学习来处理流数据?

Apache NiFi 中处理器属性和流文件属性之间的区别

Apache NiFi之MySQL数据同步到HBase

Apache NiFi 实例挂在“计算流文件沿袭...”窗口

Apache NiFi - 数据网络服务