2020-02-24
阅读量:
707
spark在什么场景比不上MapReduce?
Spark 在内存中处理数据,需要很大的内存容量。如果 Spark 与其它资源需求型服务一同运行在YARN 上,又或者数据块太大以至于不能完全读入内存,此时 Spark 的性能就会有很大的降低,此时Spark可能比不上MapReduce。当对数据的操作只是简单的ETL的时候,Spark比不上MapReduce






评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论