热线电话:13121318867

登录
2018-11-30 阅读量: 7708
分布式集群搭建完成后,启动spark报错,请教!

分布式集群搭建完成后,Hadoop正常启动,启动spark报错如下:

hduser@master:~$ /home/hduser/spark/sbin/start-all.sh

starting org.apache.spark.deploy.master.Master, logging to /home/hduser/spark/sbin/../logs/spark-hduser-org.apache.spark.deploy.master.Master-1-master.out

slaves1: ssh: Could not resolve hostname slaves1: Name or service not known

slaves2: ssh: Could not resolve hostname slaves2: Name or service not known

hduser@master:~$

新手上路,很久找不到原因,请指教!谢谢!

0.0000
6
关注作者
收藏
评论(4)

发表评论
byd711122
2018-12-05
谢谢!
0.0000 0 0 回复
byd711122
2018-12-05
问题已解决,将hduser对应的IP注释掉就可以了。
0.0000 0 0 回复
阿抽哥哥
2018-12-03
vim /etc/hosts 先看看你的slaves1与slaves2配置好了吗?节点设置对了嘛?或者看看master的 /home/hduser/spark/conf/ 下slaves.template 有没有cp 一份 slaves,并在其中添加slaves1、slaves2
245.9521 1 0 回复
PGC123
2018-12-03
根据提示信息,ssh连接的时候不能确定slave1和slave2是哪个?应该是hosts文件没有配置好,可以吧hosts文件的内容放出来看一下
245.9521 1 0 回复
推荐帖子
条评论