安装kafka

Posted wyju

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了安装kafka相关的知识,希望对你有一定的参考价值。

1.下载kafka,地址如下:

https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.6.0/kafka_2.12-2.6.0.tgz 

2. 上传kafka

3.解压kafka到/usr/local目录,使用以下命令:

sudo tar -xvf kafka_2.12-2.6.0.tgz -C /usr/local/

4.重命名解压后的目录为kafka,使用以下命令:

sudo mv /usr/local/kafka_2.12-2.6.0/ /usr/local/kafka

5.修改kafka目录的创建者为hadoop,使用以下命令:

sudo chown -R hadoop /usr/local/kafka/

6.修改kafka的配置文件,执行以下操作:

a) 编辑config/server.properties文件,使用以下命令:

vim /usr/local/kafka/config/server.properties

b) 修改第21行为以下内容:

broker.id=1

c) 修改第123行为以下内容:

zookeeper.connect=master:2181,slave1:2181,slave2:2181

7.修改环境变量,执行以下操作:

a) 编辑环境变量,使用以下命令:

vim /home/hadoop/.bashrc

b) 在文件最后追加以下内容:

export KAFKA_HOME=/usr/local/kafka
export PATH=$KAFKA_HOME/bin:$PATH

c) 刷新环境变量,使用以下命令:

source /home/hadoop/.bashrc

8.发送kafka给slave1执行以下操作:

a) 在slave1创建/usr/local/kafka目录,使用以下命令:

sudo mkdir /usr/local/kafka

b) 修改kafka目录的创建者为hadoop,使用以下命令:

sudo chown -R hadoop /usr/local/kafka/

c) 在master发送kafka目录给slave1,使用以下命令:

scp -r /usr/local/kafka/* hadoop@slave1:/usr/local/kafka/

d) 在slave1修改/usr/local/kafka/config/server.properties文件中的broker.id=2

e) 在master发送环境变量给slave1,使用以下命令:

scp /home/hadoop/.bashrc  hadoop@slave2:/home/hadoop/

f) 在slave1刷新环境变量,使用以下命令:

source /home/hadoop/.bashrc

9.参考第8步,发送kafka给slave2,并修改/usr/local/kafka/config/server.properties文件中的broker.id=3

kafka的使用步骤如下:

1.启动3个节点上的Zookeeper,在3个节点分别执行以下命令:

zkServer.sh start

2.启动3个节点上的kafka,在3个节点分别执行以下命令:

kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties &

3.通过jps命令,查看kafka的进程,如下图所示:

4.创建一个名字为spark,分区数为3,备份数为3的主题,在任意节点执行以下命令:

kafka-topics.sh --create --zookeeper master:2181,slave1:2181,slave2:2181 --replication-factor 3 --partitions 3 --topic spark

5.查看kafka目前已有的主题,使用以下命令:

kafka-topics.sh --list --zookeeper master:2181,slave1:2181,slave2:2181

6.启动kafka的控制台生产者,向spark主题写入数据,在任意节点执行以下命令:

kafka-console-producer.sh --broker-list master:9092,slave1:9092,slave2:9092 --topic spark

7.启动kafka的控制台消费者,从spark主题读取数据,在任意节点执行以下命令:

kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9092,slave2:9092 --topic spark --from-beginning

8.通过生产者向kafka的spark主题写入一些消息,并查看是否能消费到数据

以上是关于安装kafka的主要内容,如果未能解决你的问题,请参考以下文章

Kafka集群管理工具kafka-manager的安装使用

Kafka集群管理工具kafka-manager的安装使用

CentOS7下Kafka安装

在CentOS 7上安装Kafka

SparkStreaming on Kafka之Kafka解析和安装实战

如何在kafka中创建topic