永发信息网

安装单机hadoop在运行 bin/star-all.sh出现的问题,有大神帮忙看下?

答案:3  悬赏:80  手机版
解决时间 2021-02-18 17:43
  • 提问者网友:凉末
  • 2021-02-18 03:59




最佳答案
  • 五星知识达人网友:轻雾山林
  • 2021-02-18 04:53
试一下能免登陆到localhost上么: ssh localhost
不能的话,设置ssh免登陆:
cd ~
ssh-keygen -t
# 一路回车到最后
cp ~/.ssh/id_rsa.pub  ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
ssh-add ~/.ssh/id_rsa还有你的$HADOOP_HOME/conf/里的 slaves 和masters 里写的hostname一定和当前主机的不一样
这是错误的主要原因:
terminal里输入 hostname查看当前用户写的host name是什么,然后在看看hadoop目录的conf下slaves和masters里填的host name是什么,记得保持一致; 
修改有两种方式,假如要暂时修改为cluster1 则:hostname cluster1, 即可立即生效; 若要永久修改: /etc/sysconfig/network里修改HOSTNAME一项为cluster1,
之后重启机器即可(第二种方式一定要重启机器)。最后注意权限问题,假如你的hadoop目录名为:hadoop,则: chmod -R 755  hadoop/

修改完重启
全部回答
  • 1楼网友:轻熟杀无赦
  • 2021-02-18 06:48
你好! 权限问题 请确保你拥有/usr/local/hadoop的所有权限 仅代表个人观点,不喜勿喷,谢谢。
  • 2楼网友:煞尾
  • 2021-02-18 05:16
免密码没做
我要举报
如以上回答内容为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
点此我要举报以上问答信息
大家都在看
推荐资讯