栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

hadoop的安装与配置中的常见问题

hadoop的安装与配置中的常见问题

在配置时遇到的问题:

①启动hadoop结点时pc3出现“is a directory”的报错

改正方法:检查pc3的.bashrc文件,重点看export的配置路径是否都存在且正确;我的pc3没有tomcat,但在配置文件中配置了catalina,所以报错

②Start-dfs.sh之后只出现了两行,namenode和datanode没有启动成功

改正方法:检查配置文件,我的问题出在hdfs-site.xml里面没有将name和data改成namenode和datanode

③打开192.168.100.1:8088页面时,显示结点数为0

改正方法:这种情况说明pc2和pc3中/etc/hosts这个文件没有添加所有节点机的ip(我的pc1之前改过了),更改后刷新即可出现

④ 启动成功后打开192.168.100.1:9870时连接失败

改正方法:三台虚拟机的防火墙未关闭成功,正确做法是切换到root权限然后用systemctl stop firewalld命令关闭(所有节点机都要关闭防火墙)

⑤启动hadoop时有两种方法

:一是start-all.sh(但不建议使用这个方法);二是先start-dfs.sh,再start-yarn.sh,注意两行命令都要有,不然打不开页面

在进行以上安装配置hadoop的操作时,除非必须使用root权限外,其余时候都要切换到自定义用户下,否则会导致文件权限问题,使hadoop启动不成功

用ssh实现无密登录时,一定要记得密钥权限是自定义用户,发送的时候也要在自定义用户下,否则会导致无密登录失败

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/602183.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号