栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

配置HDFS-HA自动故障转移出错,解决方法

配置HDFS-HA自动故障转移出错,解决方法

编辑好core-site.xml、hdfs-site.xml配置信息后,输入start-dfs.sh启动hdfs后,仅仅只有三台机器中的一台namenode启来了,其余两台起不来,出错信息:

Retrying connect to server: hadoop102/192.168.10.102:8485. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
Retrying connect to server: hadoop104/192.168.10.104:8485. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
2022-01-03 16:50:46,417 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: hadoop103/192.168.10.103:8485. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

折腾了两三天,期间尝试了防火墙,xml配置信息、未hdfs格式化、host主机文件、网络连接、端口开启等问题的检验,最后实在没办法,把三台机器上的高可用hadoop的文件全删了,重新安装配置了hadoop,问题解决,正常启动了。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/701017.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号