其他分享
首页 > 其他分享> > Spark之Spark内核工作流程

Spark之Spark内核工作流程

作者:互联网

这是一个较为细粒度的Spark运行流程。

        1)在我们写的Spark的代码中有很多的算子操作。当代码执行到每一个action的时候就会创建一个job。然后这个job会交给DAGScheduler,DAGScheduler会将job划分为多个stage,然后每个stage创建一个TaskSet再将这个TaskSet交给TaskScheduler。

       2) TaskScheduler首先会向Master注册这个Application。Master在接收到注册信息之后会使用自己的资源调度算法在Spark集群的Woker上为这个Application启动多个Executor。Executor在启动之后会反向注册给TaskScheduler。这时TaskScheduler就会将TaskSet中的任务提交到Executor运行。而Executor每收到一个task都会用TaskRunner来封装这个Task,然后再取出一个线程来执行这个task。

       3)Spark就是通过这样的通过Stage分批次的作为TaskSet提交到executor来执行的。其中每一个task对应着一个partition来的数据来执行。

附加说明:

标签:TaskScheduler,流程,Application,task,内核,TaskSet,Executor,Spark
来源: https://blog.csdn.net/qq_34993631/article/details/86479412