kafka 分区 spark excutor task rdd

Posted mr--zhao

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了kafka 分区 spark excutor task rdd相关的知识,希望对你有一定的参考价值。

kafka分区,excutor,task,RDD分区的关系:

数据的流:数据流向从kafka>sparkStreaming>RDD

1  kafka中的 topic 的 patition 分区的设置,kafka 的 partition 分区数 ,sparkStreaming 直连方式从kafka中拉数据的话,sparkStreaming 创建的 RDD 的分区数和 kafka partitions分区数是一致的 ,而RDD的分区数对应着集群中的tack的数量,也就是对应着 excutor 的数量和其核数。因此这个要参照集群中的计算资源来进行设置,设置kafka patition。

2 sparkStreaming 的 excutor 数决定着集群并发执行 task 的数量,task用来执行 RDD 的 patition 的数据的,一个task 跑一个RDD 分区数据,因此kafka patition数量设置好了的前提下,尽量让其一批执行完毕。

3 RDD分区,在直连方式下,创建的RDD partitions数与kafka partitions数一致。

以上是关于kafka 分区 spark excutor task rdd的主要内容,如果未能解决你的问题,请参考以下文章

spark分区数,task数目,core数,worker节点个数,excutor数量梳理

spark分区数,task数目,core数,worker节点个数,excutor数量梳理

Kafka 主题分区到 Spark 流

请教一个关于使用spark 读取kafka只能读取一个分区数据的问题

Spark Direct Stream 不会为每个 kafka 分区创建并行流

spark参数调整调优