热线电话:13121318867

登录
2019-06-21 阅读量: 918
spark-shell 找不到hadoop so问题解决

问题:spark-shell 找不到hadoop so问题解决

[main] WARN org.apache.hadoop.util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

在Spark的conf目录下,修改spark-env.sh文件,加入LD_LIBRARY_PATH环境变量,值为HADOOP的native库路径即可.

100.0000
3
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子