CDH集成kafka
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CDH集成kafka相关的知识,希望对你有一定的参考价值。
添加kafka (所有程序包都是放在cm主机上面)
1.下载kafka包http://archive.cloudera.com/kafka/parcels/latest/
把包放到parcel-repo 目录
2.下载csd包http://archive.cloudera.com/csds/kafka/
放到csd目录
3.分配kafka包并激活
注意:如果进度卡在“已解压”,直接返回重新进来就会看到“激活”
4添加kafka角色
默认选项即可
安装后启动报错Java heap space (如下图)
需要修改Java内存,默认50M,这点很奇怪,安装过程中没提示让设置内存,结果执行完安装后无法启动
进入kafka选“配置”,
找到Java Heap Size 改为1G(根据服务器配置改参数)
最后保存,控制台重启kafka就可以了。
以上是关于CDH集成kafka的主要内容,如果未能解决你的问题,请参考以下文章
CDH-Kerberos环境下使用flume消费带Sentry认证的kafka数据保存到hdfs中