2019-06-21
阅读量:
918
spark-shell 找不到hadoop so问题解决
问题:spark-shell 找不到hadoop so问题解决
[main] WARN org.apache.hadoop.util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
在Spark的conf目录下,修改spark-env.sh文件,加入LD_LIBRARY_PATH环境变量,值为HADOOP的native库路径即可.






评论(0)


暂无数据
推荐帖子
0条评论
1条评论
0条评论