nynw.net
当前位置:首页 >> hADoop 为什么启动之后就是 stArt%All.sh 之后再停... >>

hADoop 为什么启动之后就是 stArt%All.sh 之后再停...

jobtracker启动失败了,查看/home/hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-jobtracker-hadoopmain.out日志文件看看是什么错误导致的

每个节点的服务需要单独启动。除非实现远程登录启动,如ssh登陆,而后启动。

在bin下要输入 ./start-all.sh

错误写的很清楚啊,就是日志目录的权限不够啊,chmod 777 /usr/local/hadoop/lib/exec/../logs 就ok了额

start-all.sh这个命令不用了,现在使用start-dfs.sh 和 start-yarn.sh代替start-all.sh命令,可能是因为跟spark里的start-all.sh命令重名了,这是打印的第一行信息的意思; 后面提示的WARN util.NativeCodeLoader: Unable to load native-hadoop...

先启动start-yarn.sh 再启动start-dfs.sh试一下。你做无密码登录了吗?host文件复制到其他集群上了吗?集群配置都完成了?

你脚本调用的有问题,应该直接输入./start-all.sh

在/etc/profile下添加如下两条环境变量 export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib" source /etc/profile 再启动hadoop 如果还不行,在你按照版本的解压缩...

datanode和secondNameNode以及ResourceManager没起来,查看下日志,找具体原因,记住不看日志无法知道为什么没起来,所以以后出现问题第一反应应该是查看日志

可以试试吧path 变量放在hadoop_home 下面,或者你直接进入$HADOOP_HOME/sbin下运行脚本

网站首页 | 网站地图
All rights reserved Powered by www.nynw.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com