Fork me on GitHub

Spark 宽依赖 窄依赖 Job Stage Executor Task 总结

79284fc78ea1414bbcaa1bc5422a1700.png

宽依赖与窄依赖

窄依赖(narrow dependency)和宽依赖(wide dependency, 也称 shuffle dependency).

  1. 窄依赖是指父RDD的每个分区只被子RDD的一个分区所使用,子RDD分区通常对应常数个父RDD分区(O(1),与数据规模无关), map/filter和union

  2. 相应的,宽依赖是指父RDD的每个分区都可能被多个子RDD分区所使用,子RDD分区通常对应所有的父RDD分区(O(n),与数据规模有关), join

宽依赖和窄依赖如下图所示:

476685204a7644a2b6d60d2ed8e5604a.png

相比于宽依赖,窄依赖对优化很有利 ,主要基于以下两点:

  1. 宽依赖往往对应着shuffle操作,需要在运行过程中将同一个父RDD的分区传入到不同的子RDD分区中,中间可能涉及多个节点之间的数据传输;而窄依赖的每个父RDD的分区只会传入到一个子RDD分区中,通常可以在一个节点内完成转换。

  2. 当RDD分区丢失时(某个节点故障),spark会对数据进行重算。

    1. 对于窄依赖,由于父RDD的一个分区只对应一个子RDD分区,这样只需要重算和子RDD分区对应的父RDD分区即可,所以这个重算对数据的利用率是100%的;

    2. 对于宽依赖,重算的父RDD分区对应多个子RDD分区,这样实际上父RDD 中只有一部分的数据是被用于恢复这个丢失的子RDD分区的,另一部分对应子RDD的其它未丢失分区,这就造成了多余的计算;更一般的,宽依赖中子RDD分区通常来自多个父RDD分区,极端情况下,所有的父RDD分区都要进行重新计算。

    3. 如下图所示,b1分区丢失,则需要重新计算a1,a2和a3,这就产生了冗余计算(a1,a2,a3中对应b2的数据)。

b8b193420285452fb728b73e1da7e2db.png

Job & Stage & Executor & Task

  • Job: A job is triggered by an action, like count() or saveAsTextFile(). 由action 触发

  • stage: 一个job会被拆分为多组Task,每组任务被称为一个Stage, Stage包含两类:

    • ShuffleMapStage in Spark

      ShuffleMapStage 是在DAG中 属于中间层的stage, 会产生map output file的write disk操作,提供给下一个stage的task使用,并且增加了网络IO,跨stage会是一种高昂的开销,很多情况下应尽量避免, 另外ShuffleMapStage可以被多个job共享!

    • ResultStage in Spark

    action操作会包含在ResultStage里,是DAG中最终的stage, 里面的task会计算最终的action结果
    53025fc4db434c39af057427657417d7.png

d67fc206b2d64619bfb180e2cfbfbc1a.png

bbefc3c9b64448a69ff70e00b924e927.png

stage内只会存在窄依赖, stage间存在宽依赖,一定存在shuffle过程!

  • 在Spark中有两类task:

    • 一类是shuffleMapTask
    • 一类是resultTask
      第一类task的输出是shuffle所需数据,第二类task的输出是result,stage的划分也以此为依据,shuffle之前的所有变换是一个stage,shuffle之后的操作是另一个stage。比如
rdd.parallize(1 to 10).foreach(println)

这个操作没有shuffle,直接就输出了,那么只有它的task是resultTask,stage也只有一个;如果是

rdd.map(x => (x, 1)).reduceByKey(_ + _).foreach(println)

这个job因为有reduce,所以有一个shuffle过程,那么reduceByKey之前的是一个stage,执行shuffleMapTask,输出shuffle所需的数据,reduceByKey到最后是一个stage,直接就输出结果了。如果job中有多次shuffle,那么每个shuffle之前都是一个stage. 会根据RDD之间的依赖关系将DAG图划分为不同的阶段,对于窄依赖,由于partition依赖关系的确定性,partition的转换处理就可以在同一个线程里完成,窄依赖就被spark划分到同一个stage中,而对于宽依赖,只能等父RDD shuffle处理完成后,下一个stage才能开始接下来的计算。之所以称之为ShuffleMapTask是因为它需要将自己的计算结果通过shuffle到下一个stage中
5e15d1f9241444b7ae2e0efd62c805c8.png

因此spark划分stage的整体思路是:从后往前推,遇到宽依赖就断开,划分为一个stage;遇到窄依赖就将这个RDD加入该stage中。因此在图2中RDD C,RDD D,RDD E,RDDF被构建在一个stage中,RDD A被构建在一个单独的Stage中,而RDD B和RDD G又被构建在同一个stage中。

参考链接
[1] https://data-flair.training/blogs/spark-stage/


本文地址:https://www.6aiq.com/article/1547041236424
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出