热线电话:13121318867

登录
2020-02-24 阅读量: 707
spark在什么场景比不上MapReduce?

Spark 在内存中处理数据,需要很大的内存容量。如果 Spark 与其它资源需求型服务一同运行在YARN 上,又或者数据块太大以至于不能完全读入内存,此时 Spark 的性能就会有很大的降低,此时Spark可能比不上MapReduce。当对数据的操作只是简单的ETL的时候,Spark比不上MapReduce

0.0000
0
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子