Spark——窄依赖和宽依赖

Posted Java学习基地Java毕设定制

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark——窄依赖和宽依赖相关的知识,希望对你有一定的参考价值。

Spark的窄依赖

窄依赖是指父RDD的每个分区只被子RDD的一个分区所使用,子RDD一般对应父RDD的一个或者多个分区。(与数据规模无关)不会产生shuffle。

下面的join也是窄依赖,虽然有两个父RDD,但是两个 RDD中每个分区都被一个子RDD的分区使用,即使父RDD的分区里面的内容并没有让子RDD的一个分区使用。

Spark(8)——窄依赖和宽依赖

宽依赖指父RDD的多个分区可能被子RDD的一个分区所使用,子RDD分区通常对应所有的父RDD分区(与数据规模有关),会产生shuffle

Spark(8)——窄依赖和宽依赖

宽依赖与窄依赖对比:

  • 宽依赖往往对应着shuffle操作,需要在运行过程中将同一个父RDD的分区传入到不同的子RDD分区中,中间可能涉及多个节点之间的数据传输;而窄依赖的每个父RDD的分区只会传入到一个子RDD分区中,通常可以在一个节点内完成转换。

  • 当RDD分区丢失时(某个节点故障),spark会对数据进行重算。

  1. 对于窄依赖,由于父RDD的一个分区只对应一个子RDD分区,这样只需要重算和子RDD分区对应的父RDD分区即可,所以这个重算对数据的利用率是100%的;

  2. 对于宽依赖,重算的父RDD分区对应多个子RDD分区,这样实际上父RDD 中只有一部分的数据是被用于恢复这个丢失的子RDD分区的,另一部分对应子RDD的其它未丢失分区,这就造成了多余的计算;更一般的,宽依赖中子RDD分区通常来自多个父RDD分区,极端情况下,所有的父RDD分区都要进行重新计算。
     

  3. 如下图所示,b1分区丢失,则需要重新计算a1,a2和a3,这就产生了冗余计算(a1,a2,a3中对应b2的数据)。

Spark(8)——窄依赖和宽依赖

总结:

1、窄依赖允许在一个集群节点上以流水线的方式(pipeline)计算所有父分区。如,逐个元素地执行map、然后filter操作;而宽依赖则需要首先计算好所有父分区数据,然后在节点之间进行Shuffle,这与MapReduce类似。

2、窄依赖能够更有效地进行失效节点的恢复,即只需重新计算丢失RDD分区的父分区,而且不同节点之间可以并行计算;而对于一个宽依赖关系的Lineage图,单个节点失效可能导致这个RDD的所有祖先丢失部分分区,因而需要整体重新计算

  • 窄依赖的函数有:map, filter, union, join(父RDD是hash-partitioned ), mapPartitions, mapValues

  • 宽依赖的函数有:groupByKey, join(父RDD不是hash-partitioned ), partitionBy

 

需要注意的点:

如下的这种情况使宽依赖还是窄依赖呢?你可能说,子RDD的一个分区都来自父RDD的一个人分区,使窄依赖。

那么你就错了。

Spark(8)——窄依赖和宽依赖

在groupbykey的时候,如果没有指定分区数,默认按照RDD的分区数,那么在进行分区的时候会对key采用哈希算法对分区数取余的方式进行分区,所以说tom,ketty有可能分到一个分区,有可能两个分区。但是只要父RDD的一个分区有可能分到子RDD的两个以上的分区就是宽依赖。

以上是关于Spark——窄依赖和宽依赖的主要内容,如果未能解决你的问题,请参考以下文章

Spark任务流程笔记

Spark:shuffle原理

Spark:shuffle原理

Spark RDD 宽窄依赖

Spark Stage的划分

Spark宽窄依赖