2020-02-29
阅读量:
983
Spark中driver的作用?
driver首先会向集群管理者(standalone、yarn,mesos)申请spark应用所需的资源,也就是executor,然后driver进程会将我们编写的spark应用代码拆分成多个stage,每个stage执行一部分代码片段,并为每个stage创建一批tasks,然后将这些tasks分配到各个executor中执行






评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论