太多了,记得看目录
需要启动的集群:启动HDFS和YARN集群
启动方式:单节点逐个启动 或者 使用脚本一键启动
一、单节点启动、关闭 HDFS进程: 1. 启动HDFS的 namenodehadoop01中,输入:hadoop-daemon.sh start namenode
2. 启动HDFS的 datanodehadoop01中,输入:hadoop-daemon.sh start datanode
3. 验证启动hadoop01中,输入:jps
这个命令可以查看和java相关的进程
出现了namenode和datanode就成功了
若启动未成功,转到此文章了解(2条消息) 启动Hadoop集群、启动Hadoop的HDFS失败、namenode启动不了、datanode启动不了、jps后进程只有一个_连胜是我偶像的博客-CSDN博客
4.其他两台主机 不一样设置
只启动 HDFS DataNode进程 --> 验证启动
YARN进程: 1. 启动YARN的 resourcemanagerhadoop01中,输入:yarn-daemon.sh start resourcemanager
2. 启动YARN的 nodemanagerhadoop01中,输入:yarn-daemon.sh start nodemanager
3. 验证启动hadoop01中,输入:jps
有这两个进程则成功了
4.其他两台主机 不一样设置只启动 YARN NodeManager进程 --> 验证启动
Secondarynamenode进程 1. 启动Secondarynamenode:在hadoop02中,输入:hadoop-daemon.sh start secondarynamenode
2.验证启动: 单节点关闭进程只需要把 start 变成 stop 来运行就可以了
1. 例子:关闭HDFS namenode 进程在hadoop01中输入:hadoop-daemon.sh stop namenode
2. 验证关闭输入:jps
已经没有namenode进程了
二、多节点启动、关闭 HDFS进程: 1. 启动HDFS所有进程在hadoop01上,输入:start-dfs.sh
下面反馈信息表示:已启动hadoop01的namenode,已启动hadoop01、02、03的datanode,已启动hadoop02的seconarynamenode。
2.启动验证hadoop01中,输入:jps
datanode和namenode已开启
hadoop02中,输入:jps
seconarynamenode和datanode已开启
hdoop03一样验证。
YARN进程: 1. 启动YARN所有进程在hadoop01上,输入:start-yarn.sh
下面反馈信息表示:已启动hadoop01的resourcmanager,已启动hadoop01、02、03的nodemanager
2.启动验证hadoop01中,输入:jps
resourcmanager和nodemanager已开启
其他两台虚拟机同样jps一下看看就好。
多节点关闭只需要把 start 变成 stop 来运行就可以了
1. 例子:关闭HDFS 进程在hadoop01中输入:stop-yarn.sh
2.验证关闭输入:jps
3. YARN一样的操作方法-----------------略-----------------
三、一键启动、关闭(不推荐) 1. 启动:主节点hadoop01上,输入:start-all.sh
第一行会显示不建议用这个指令,这个指令不好用我们了解就好了
验证:
2. 关闭:主节点hadoop01上,输入:stop-all.sh
验证:
至此,hadoop启动、关闭集群完成。



