Day549.kafka生产调优手册 -kafka

Posted 阿昌喜欢吃黄桃

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Day549.kafka生产调优手册 -kafka相关的知识,希望对你有一定的参考价值。

kafka生产调优手册

一、Kafka 硬件 配置选择

1、场景说明

2、服务器台数选择

3、磁盘选择

4、内存选择

Kafka 内存组成堆内存 + 页缓存

1)Kafka 堆内存建议每个节点:10g ~ 15g

kafka-server-start.sh 中修改

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
	export KAFKA_HEAP_OPTS="-Xmx10G -Xms10G"
fi

查看 Kafka 进程号:

[atguigu@hadoop102 kafka]$ jps
2321 Kafka
5255 Jps
1931 QuorumPeerMain

根据 Kafka 进程号,查看 Kafka 的 GC 情况:

jstat -gc 2321 1s 10

新生代GC次数


根据 Kafka 进程号,查看 Kafka 的堆内存

[atguigu@hadoop102 kafka]$ jmap -heap 2321

Attaching to process ID 2321, please wait...
Debugger attached successfully.
Server compiler detected.
JVM version is 25.212-b10

using thread-local object allocation.
Garbage-First (G1) GC with 8 thread(s)

Heap Configuration:
	MinHeapFreeRatio = 40
	MaxHeapFreeRatio = 70
	MaxHeapSize = 2147483648 (2048.0MB)
	NewSize = 1363144 (1.2999954223632812MB)
	MaxNewSize = 1287651328 (1228.0MB)
	OldSize = 5452592 (5.1999969482421875MB)
	NewRatio = 2
	SurvivorRatio = 8
	MetaspaceSize = 21807104 (20.796875MB)
	CompressedClassSpaceSize = 1073741824 (1024.0MB)
	MaxMetaspaceSize = 17592186044415 MB
	G1HeapRegionSize = 1048576 (1.0MB)

Heap Usage:
G1 Heap:
	regions = 2048
	capacity = 2147483648 (2048.0MB)
	used = 246367744 (234.95458984375MB)
	free = 1901115904 (1813.04541015625MB)
	11.472392082214355% used

G1 Young Generation:
Eden Space:
	regions = 83
	capacity = 105906176 (101.0MB)
	used = 87031808 (83.0MB)
	free = 18874368 (18.0MB)
	82.17821782178218% used

Survivor Space:
	regions = 7
	capacity = 7340032 (7.0MB)
	used = 7340032 (7.0MB)
	free = 0 (0.0MB)
	100.0% used

G1 Old Generation:
	regions = 147
	capacity = 2034237440 (1940.0MB)
	used = 151995904 (144.95458984375MB)
	free = 1882241536 (1795.04541015625MB)
	7.471886074420103% used

13364 interned Strings occupying 1449608 bytes.

页缓存:页缓存是 Linux 系统服务器的内存。

我们只需要保证 1 个 segment(1g)中25%的数据在内存中就好。

5、CPU 选择


6、网络选择


二、Kafka 生产者

1、Kafka 生产者核心参数配置





2、生产者如何提高吞吐量

3、数据可靠性

4、数据去重


5、数据有序

单分区内,有序(有条件的,不能乱序);

多分区,分区与分区间无序

6、数据 乱序


三、Kafka Broker

1、Broker 核心参数配置



2、服役新节点/ 退役旧节点

(1)创建一个要均衡的主题。

[atguigu@hadoop102 kafka]$ vim topics-to-move.json

	"topics": [
		"topic": "first"
	],
	"version": 1

(2)生成一个负载均衡的计划。

bin/kafka-reassign-partitions.sh --bootstrap-server  hadoop102:9092  --topics-to-move-json-file topics-to-move.json --broker-list "0,1,2,3" --generate

(3)创建副本存储计划(所有副本存储在 broker0、broker1、broker2、broker3 中)。

vim increase-replication-factor.json

(4)执行副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --execute

(5)验证副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --verify

3、增加分区

修改分区数(注意:分区数只能增加,不能减少

bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --alter --topic first --partitions 3

4、增加副本因子

1)创建 topic

bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create --partitions 3 --replication-factor 1 --topic four

2)手动增加副本存储

5、手动调整分区副本存储

(1)创建副本存储计划(所有副本都指定存储在 broker0、broker1 中)。

vim increase-replication-factor.json

输入如下内容:


	"version":1,
	"partitions":["topic":"three","partition":0,"replicas":[0,1],
	"topic":"three","partition":1,"replicas":[0,1],
	"topic":"three","partition":2,"replicas":[1,0],
	"topic":"three","partition":3,"replicas":[1,0]]

(2)执行副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --execute

(3)验证副本存储计划。

bin/kafka-reassign-partitions.sh --bootstrap-server hadoop102:9092 --reassignment-json-file increase-replication-factor.json --verify

6、Leader Partition 负载 平衡

7、自动创建主题


1)向一个没有提前创建 five 主题发送数据

bin/kafka-console-producer.sh  --bootstrap-server hadoop102:9092 --topic five
>hello world

2)查看 five 主题的详情

bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe --topic five

四、 Kafka 消费者

1、Kafka 消费者核心参数配置





2、消费者再平衡

3、指定 Offset 消费

kafkaConsumer.seek(topic, 1000);

4、指定 时间 消费

HashMap<TopicPartition, Long> timestampToSearch = new HashMap<>();
timestampToSearch.put(topicPartition, System.currentTimeMillis() - 1 * 24 * 3600 * 1000);
kafkaConsumer.offsetsForTimes(timestampToSearch);

5、消费者如何提高吞吐量

增加分区数;

bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --alter --topic first --partitions 3


五、Kafka 总体

1、如何提升吞吐量

2、数据精准一次

3、合理设置 分区数

4、单条日志大于 1m

5、服务器挂了

6、集群压力测试

1 )Kafka 压测

用 Kafka 官方自带的脚本,对 Kafka 进行压测。
⚫ 生产者压测:kafka-producer-perf-test.sh
⚫ 消费者压测:kafka-consumer-perf-test.sh

2 )Kafka Producer 压力测试

创建一个 test topic,设置为 3 个分区 3 个副本

bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --create --replication-factor 3 --partitions 3 --topic test

在/opt/module/kafka/bin 目录下面有这两个文件。我们来测试一下

bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000  --producer-props bootstrap.servers=hadoop102:9092,hadoop103:9092,hadoop104:9092 batch.size=16384 linger.ms=0

参数说明


输出结果:

(3)调整 batch.size 大小

①batch.size 默认值是 16k。本次实验 batch.size 设置为32k

bin/kafka-producer-perf-test.sh --topic test --record-size 1024 --num-records 1000000 --throughput 10000  --producer-props bootstrap.servers=hadoop102:9092,hadoop103:9092,hadoop104:9092 batch.size=32768 linger.ms=0

输出结果:

②batch.size 默认值是 16k。本次实验 batch.size 设置为 4k

bin/kafka-producer-perf-test.sh -- topic test --record-size 1024 --num-records 1000000 --throughput 10000 
bootstrap.servers=hadoop102:9092,hadoop103:9092,hadoop104:9092 batch.size=4096 linger.ms=0

输出结果:

(4)调整 linger.ms 时间


(5)调整压缩方式




(6)调整缓存大小


3 )Kafka Consumer 压力测试

参数说明:


(3)一次拉取条数为 2000


(4)调整 fetch.max.bytes 大小为 100m

以上是关于Day549.kafka生产调优手册 -kafka的主要内容,如果未能解决你的问题,请参考以下文章

建议收藏大数据技术之 Hadoop(生产调优手册)

#yyds干货盘点#Hadoop企业级生产调优手册

大数据技术之Hadoop(生产调优手册)

大数据技术之Hadoop(生产调优手册)

#yyds干货盘点#Hadoop企业级生产调优手册

尚硅谷大数据技术Hadoop教程-笔记06Hadoop-生产调优手册