欢迎光临
hadoop多次格式化解决办法
   

hadoop多次格式化解决办法

hadoop首次启动需要格式化,这时若是因为一些原由导致格式化不止一次,就会导致主点之间互相不识别,就会导致一些节点不会启动(如图是没问题的)

hadoop多次格式化解决办法,第1张

方法

一.删除配置文件core-site.xml 和hdfs-site.xml中指定目录下的文件(在如例地找    /root/wwr/hadoop-3.1.4/etc/hadoop)

1.删除 hadoop.namenode.dir、hadoop.datanode.dir和hadoop.tmp.dir所指目录里的文件

hadoop多次格式化解决办法,第2张

3.删除 dfs.namenode.dir和dfs.datanode.dir所指目录里的文件

rm -rf name

rm -rf data

4.删除logs日志文件和tmp缓存文件

rm -rf logs

rm -rf tmp

5.重新格式化

hdfs namenode -format

 
 绿色洋桔梗花语  令方针简历  迎新春  新乡鲜花店  慈湖  河南人惹谁了 
打赏
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《hadoop多次格式化解决办法》
文章链接:https://goodmancom.com/wl/176003.html