2020-05-07
阅读量:
1667
error:not found: value sc
启动spark-shell 执行 val sqlHiveContext = new HiveContext(sc)语句时 报错:如图
这是因为shell启动时没有初始化sparkContext,修改conf/spark-env.sh文件,添加如下内容:
export SPARK_LOCAL_IP="192.168.23.131" 把 192.168.23.131 改成自己的ip即可
之后重新启动spark-shell即可成功







评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论