栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Hadoop使用hdfs dfsadmin -report命令不报告所有节点信息且显示数据全为0的完美解决方法

Hadoop使用hdfs dfsadmin -report命令不报告所有节点信息且显示数据全为0的完美解决方法

出现以下hdfs数据全为0的原因和不报告所有节点的信息,出在namenode和datanode启动id不一致,这导致的原因大部分都源于不止一次的进行Hadoop系统格式化操作。
问题截图↓

在hadoop文件目录有你自己新创的dfs文件,每次格式化,里面name文件存储的namenode的clusterID就会发生改变,而datanode的clusterID在第一次格式化后就会确定下来,重复的格式化操作,会导致namenode的clusterID和datanode的clusterID不一致,这样就会导致hdfs不能识别datanode。

我们需要做的就是,在主节点namenode下找到/hadoop/name/curremt/这个目录,利用编辑器打开下面这个VERSION文件
主节点目录↓

主节点VERSION文件↓

然后将里面的clusterID这行复制,然后去到所有从节点的/hadoop/tmp/dfs/data/current/目录中,同样将目录中的VERSION文件利用编辑器打开,将其中clusterID用主节点的clusterID覆盖
从节点目录↓

从节点VERSION文件↓

本次笔记分享到此结束,谢谢大家阅读!!~~

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/423414.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号