2019-06-17
阅读量:
1910
使用spark的时候提示没有'sc'怎么办?
使用spark的时候提示没有'sc'怎么办?
答:sc是开发spark程序的入口,如果使用spark-shell的话可以自动生成否则需要自定义。
自定义方式如下:
#首先生成sc,使用pyspark shell 的时候默认生成sc可以不初始化
from pyspark import SparkConf, SparkContext
import os
import time
# 配置环境变量不是必须做的。根据自己的实际路径来配置,如果环境变量中有就不需要配置。
os.environ['SPARK_HOME'] = r'E:/spark-1.6.1-bin-2.5.0-cdh5.3.6'
os.environ['HADOOP_HOME'] = r'G:/OnlinePySparkCourse/pyspark-project/winuntil'
sparkConf = SparkConf()\
.setAppName('Python Spark WordCount')\
.setMaster('local[2]')
sc = SparkContext(conf=sparkConf)






评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论