重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
小编给大家分享一下hdfs的namenode无法启动怎么办,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!
成都创新互联公司是一家专业提供西夏企业网站建设,专注与网站建设、成都网站设计、H5建站、小程序制作等业务。10年已为西夏众多企业、政府机构等服务。创新互联专业网络公司优惠进行中。
在安装hadoop2.6.0的linux上
格式化hdfs文件系统 hadoop namenode -format
启动hdfs 和MapReduce守护进程(start-dfs.sh、start-yarn.sh)
开始在hdfs文件系统中进行操作
由于偶然原因,机器重启
当再次启动hdfs和mapreduce守护进程后,hdfs文件系统无法操作了
显示:(ls: Call From ubuntu/127.0.1.1 to localhost:8020 failed on connection exception: java.net.ConnectException: 拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused)
jps命令显示namenode没有启动
网上有些建议:格式化hdfs文件系统,虽然可以重新使用,但是之前操作的文件都没了
又在网上找了一下,说
“
每次开机都得重新格式化一下namenode才可以
其实问题就出在tmp文件,默认的tmp文件每次重新开机会被清空,与此同时namenode的格式化信息就会丢失
于是我们得重新配置一个tmp文件目录
首先在home目录下建立一个hadoop_tmp目录
sudo mkdir ~/hadoop_tmp
然后修改hadoop/conf目录里面的core-site.xml文件,加入以下节点:
注意:我的用户是chjzh所以目录是/home/chjzh/hadoop_tmp
OK了,重新格式化Namenode
hadoop namenode -format
然后启动hadoop
start-all.sh
执行下JPS命令就可以看到NameNode了
”
看完了这篇文章,相信你对“hdfs的namenode无法启动怎么办”有了一定的了解,如果想了解更多相关知识,欢迎关注创新互联行业资讯频道,感谢各位的阅读!