Spark源码剖析(八):stage划分原理与源码剖析
2018-01-06 22:25
525 查看
引言
对于Spark开发人员来说,了解stage的划分算法可以让你知道自己编写的spark application被划分为几个job,每个job被划分为几个stage,每个stage包括了你的哪些代码,只有知道了这些之后,碰到某个stage执行特别慢或者报错,你才能快速定位到对应的代码,对其进行性能优化和排错。stage划分原理与源码
接着上期内核源码(五)的最后,每个action操作最终会调用SparkContext初始化时创建的DAGSchedule的runJob方法创建一个job:那么这一篇就我们来探究一下每个job中stage到底是如何划分的
dagScheduler.runJob(rdd, cleanedFunc, partitions, callSite, allowLocal, resultHandler, localProperties.get)
val waiter = submitJob(rdd, func, partitions, callSite, allowLocal, resultHandler, properties)
eventProcessLoop.post(JobSubmitted( jobId, rdd, func2, partitions.toArray, allowLocal, callSite, waiter, properties))
new DAGSchedulerEventProcessLoop(this)
dagScheduler.handleJobSubmitted(jobId, rdd, func, partitions, allowLocal, callSite, listener, properties)
跳转了这么多,我们终于找到了DAGScheduler的job调度核心入口
handleJobSubmitted方法,该方法总共分为五步完成stage的划分和提交。
finalStage = newStage(finalRDD, partitions.size, None, jobId, callSite)使用触发job的最后一个rdd创建finalStage
val job = new ActiveJob(jobId, finalStage, func, partitions, callSite, listener, properties)用finalStage创建一个job
submitStage(finalStage)stage划分算法重点!递归寻找父Stage!
val missing = getMissingParentStages(stage).sortBy(_.id)获取当前stage的父stage
submitMissingTasks(stage, jobId.get)提交某一个stage
val locs = getPreferredLocs(stage.rdd, id)给每个partition创建一个ShuffleMapTask或ResultTask(最后一个stage),并计算其运行的最佳位置
stage划分算法总结
1. 从finalStage倒推
2. 通过宽依赖,来进行新stage的划分
3. 使用递归,优先提交父stage
重要知识点
对于每一种有shuffle的操作,例如:groupByKey、reduceByKey、countByKey等,底层都对应了三个RDD:MapPartitionsRDD:对应父stage的最后一个RDD
ShuffleRDD:对应子stage的第一个RDD
MapPartitionsRDD:对应子stage的第二个RDD
相关文章推荐
- Spark2.2 DAGScheduler源码分析[stage划分算法源码剖析]
- [Spark源码剖析] DAGScheduler划分stage
- Spark内核源码深度剖析:Master主备切换机制原理剖析与源码分析
- Spark技术内幕:Stage划分及提交源码分析
- spark源码之Job执行(1)stage划分与提交
- Spark源码分析之DAGScheduler以及stage的划分
- [Spark源代码剖析] DAGScheduler划分stage
- spark源码之Job执行(1)stage划分与提交
- spark源码之Job执行(1)stage划分与提交
- 大数据IMF传奇行动绝密课程第32课:Spark Worker原理和源码剖析解密
- spark源码之Job执行(1)stage划分与提交
- Spark源码走读(三) —— Stage的划分和提交
- Spark2.2 SparkContext原理剖析图及源码
- spark源码之Job执行(1)stage划分与提交
- spark-0.8.0源码剖析-stage的建立--宽依赖和窄依赖
- Spark2.2 TaskScheduler原理剖析与源码分析
- Spark2.2 Executor原理剖析及源码分析
- [Spark内核] 第34课:Stage划分和Task最佳位置算法源码彻底解密
- spark源码之Job执行(1)stage划分与提交
- 我和spark有个约会(1)-Spark中的stage的划分原理