主节点:
要提前配好hosts文件
hadoop-env.shyarn-env.shmapred-env.sh配置jdk环境
core-site.shhdfs-site.shyarn-site.shmapred-site.sh配置文件
配置环境变量
1.scp hadoop
2.scp hosts
3.scp profile
4.启动zk
5.启动journalnode hadoop-daemon.sh start journalnode
6.格式化HDFS系统hdfs namenode -format
7.启动hadoop上的nodename系统:hadoop-daemon.sh start namenode
8.启动datanode:hadoop-daemon.sh start datanode
9.添加hdfs.site.sh/core-site.sh
10.单独scp hdfs-site.sh/core-site.sh到子节点
11.关闭HDFS服务
12.启动zookeeper
13.初始化HA在zookeeper中的状态:hdfs zkfc -formatZK
14.启动HDFS服务:start-dfs.sh
子节点1:
1.生效环境变量
2.启动zk
3.启动journalnode hadoop-daemon.sh start journalnode
4.从 Active NameNode 节点拷贝 HDFS 的元数据到 Standby NameNode 节点:hdfs namenode -bootstrapStandby
-
启动namenode:hadoop-daemon.sh start namenode
-
启动datanode:hadoop-daemon.sh start datanode
-
在主节点修改过hdfs/core文件,关闭HDFS服务开启zookeeper后开启zookeeper
子节点2:
1.生效环境变量
2.启动zk
3.启动journalnode hadoop-daemon.sh start journalnode
4.启动datanode:hadoop-daemon.sh start datanode
5.在主节点修改过hdfs/core文件,关闭HDFS服务开启zookeeper后开启zookeeper
最后可以测试主节点和子节点的状态
通过:kill -9 主节点namenode进程号
然后查看网页主节点子节点状况



