热线电话:13121318867

登录
2020-03-01 阅读量: 663
Spark中的SparkContext的作用?

SparkContext是用户应用和Spark集群的交换的主要接口,用户应用一般首先要创建它

如果你使用SparkShell,你不必自己显式去创建它,系统会自动创建一个名字为sc的SparkContext的实例

SparkContext会设置一些配置信息,比如executor使用到的memory的大小,core数量等

0.0000
4
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子