2020-03-01
阅读量:
663
Spark中的SparkContext的作用?
SparkContext是用户应用和Spark集群的交换的主要接口,用户应用一般首先要创建它
如果你使用SparkShell,你不必自己显式去创建它,系统会自动创建一个名字为sc的SparkContext的实例
SparkContext会设置一些配置信息,比如executor使用到的memory的大小,core数量等






评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论