2020-02-28
阅读量:
698
Spark程序执行时为什么会产生很多task
每一个文件对应一个block,当小文件很多时,block也会很多,有多少个block就会有多少个task启动
spark中有partition的概念,每个partition都会对应一个task,task越多,在处理大规模数据的时候,就会越有效率






评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论