2020-02-28
阅读量:
585
简述hadoop和spark的shuffle
hadoop:map端保存分片数据,通过网络收集到reduce端
spark:spark的shuffle是在DAGSchedular划分Stage的时候产生的,TaskSchedule要分发Stage到各个worker的executor,减少shuffle可以提高性能






评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论