PGC123

2019-02-25   阅读量: 717

大数据 Spark Hadoop

spark中的job与mapreduce中job的区别?

扫码加入数据分析学习群

spark中的job与mapreduce中job的区别?

答:

熟悉Hadoop的人应该都知道,用户先编写好一个程序,我们称为Mapreduce程序,一个Mapreduce程序就是一个Job,而一个Job里面可以有一个或多个Task,

Task又可以区分为Map Task和Reduce Task.

而在Spark中,也有Job概念,但是这里的Job和Mapreduce中的Job不一样,它不是作业的最高级别的粒度,在它之上还有Application的概念。一个action算子就算一个Job,比方说count,first等。

添加CDA认证专家【维克多阿涛】,微信号:【cdashijiazhuang】,提供数据分析指导及CDA考试秘籍。已助千人通过CDA数字化人才认证。欢迎交流,共同成长!
42.8571 1 0 关注作者 收藏

评论(0)


暂无数据

推荐课程

推荐帖子