CDH集成kafka

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CDH集成kafka相关的知识,希望对你有一定的参考价值。

添加kafka   (所有程序包都是放在cm主机上面)

  1.下载kafka包http://archive.cloudera.com/kafka/parcels/latest/

   把包放到parcel-repo 目录

技术分享图片

2.下载csd包http://archive.cloudera.com/csds/kafka/

放到csd目录

技术分享图片

3.分配kafka包并激活

技术分享图片

技术分享图片

注意:如果进度卡在“已解压”,直接返回重新进来就会看到“激活”

4添加kafka角色

技术分享图片

默认选项即可

安装后启动报错Java heap space (如下图)

需要修改Java内存,默认50M,这点很奇怪,安装过程中没提示让设置内存,结果执行完安装后无法启动

技术分享图片

进入kafka选“配置”,

找到Java Heap Size 改为1G(根据服务器配置改参数)

技术分享图片

最后保存,控制台重启kafka就可以了。

以上是关于CDH集成kafka的主要内容,如果未能解决你的问题,请参考以下文章

CDH安装kafka

CDH 中配置Kafka 的总结

CDH-Kerberos环境下使用flume消费带Sentry认证的kafka数据保存到hdfs中

CDH6.3.2 集成flink的部署配置

Apache的HBase与cdh的hue集成(不建议不同版本之间的集成)

CDH 平台集成 Apache Atlas