Spark运行流程
作者:互联网
1、任务调度流程
- 1、当一个spark任务提交的时候,首先需要为spark application创建基本的运行环境,也就是在Driver创建sparkContext,同时构建DAGScheduler和TaskScheduler
- 2、SparkContext向资源管理器申请exector运行资源
- 3、资源管理器为exector分配资源并创建exector进程,exector的运行状况通过心跳机制向资源管理器进行汇报
- 4、sparkContext根据RDD的依赖关系构建DAG图,构建完毕后,将DAG图提交给DAGScheduler,DAGScheduler开始划分stage,并将stage中的TaskSet发送给TaskScheduler
- 5、TaskScheduler将TaskSet中的task发送给exector运行,同时SparkContext将运行代码发送给exector
- 6、exector将task放入线程池进行运行,将执行结果反馈给TaskScheduler,TaskScheduler再将结果反馈给DAGScheduler,直到全部任务运行结束后,释放所有的资源
标签:TaskScheduler,流程,发送给,资源管理,DAGScheduler,Spark,exector,运行 来源: https://blog.csdn.net/qq_42160456/article/details/116982422