2020-03-01
阅读量:
752
Spark中的SparkContext的作用?
SparkContext是用户应用和Spark集群的交换的主要接口,用户应用一般首先要创建它
如果你使用SparkShell,你不必自己显式去创建它,系统会自动创建一个名字为sc的SparkContext的实例
SparkContext会设置一些配置信息,比如executor使用到的memory的大小,core数量等
0.0000
0
4
关注作者
收藏
评论(0)
发表评论
暂无数据
推荐帖子
0条评论
0条评论

