栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

HadoopHA 搭建

HadoopHA 搭建

1.准备三台机器 centos7

安装步骤 略( 可以看我的 虚拟机安装 centos7 文章)

2.配置免秘钥访问

略(可以看我的免秘钥配置文章)

3.JKD 安装1.8

4.Hadoop官网下载3.1.2
网址 http://hadoop.apache.org/
https://archive.apache.org/dist/hadoop/common/hadoop-3.1.2/
5.解压
 tar -zxvf hadoop-3.1.2.tar.gz
 mv hadoop-3.1.2 /opt/test/
 cd /opt/test/hadoop-3.1.2/etc/hadoop/
6.修改环境变量

vi hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_ZKFC_USER=root
export HDFS_JOURNALNODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
7.修改配置文件

vi core-site.xml


fs.defaultFS
hdfs://hdfs-test


hadoop.tmp.dir
/var/test/hadoop/ha


hadoop.http.staticuser.user
root


ha.zookeeper.quorum
10.1.1.201:2181,10.1.1.158:2181,10.1.1.185:2181

vi hdfs-site.xml


dfs.nameservices
hdfs-test


dfs.ha.namenodes.hdfs-test
nn1,nn2


dfs.namenode.rpc-address.hdfs-test.nn1
10.1.1.58:8020


dfs.namenode.rpc-address.hdfs-test.nn2
10.1.1.152:8020


dfs.namenode.http-address.hdfs-test.nn1
10.1.1.58:9870


dfs.namenode.http-address.hdfs-test.nn2
10.1.1.152:9870


dfs.namenode.shared.edits.dir
qjournal://10.1.1.58:8485;10.1.1.152:8485;10.1.1.195:8485/hdfs-test


dfs.journalnode.edits.dir
/var/test/hadoop/ha/qjm


dfs.client.failover.proxy.provider.hdfs-test
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxy
Provider


dfs.ha.fencing.methods
sshfence
shell(true)


dfs.ha.fencing.ssh.private-key-files
/root/.ssh/id_rsa


dfs.ha.automatic-failover.enabled
true


dfs.replication
2

-vi workers

10.1.1.58
10.1.1.152
10.1.1.195
8.分发
scp -r hadoop-3.1.2 root@10.1.1.152:/opt/test
scp -r hadoop-3.1.2 root@10.1.1.195:/opt/test
9.修改环境变量

vi /etc/profile

export HADOOP_HOME=/opt/test/hadoop-3.1.2
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

分发

scp /etc/profile root@10.1.1.152:/etc/profile

scp /etc/profile root@10.1.1.195:/etc/profile

source /etc/profile

10.首先启动Zookeeper

三节点都启动

[root@node01 ]#zkServer.sh start
[root@node02 ]#zkServer.sh start
[root@node03 ]#zkServer.sh start
zkServer.sh status
11.启动JournalNode

三节点都启动

[root@node01 ]# hdfs --daemon start journalnode
[root@node02 ]# hdfs --daemon start journalnode
[root@node03 ]# hdfs --daemon start journalnode
12.格式化NameNode
[root@node01 ]# hdfs namenode -format
[root@node01 ]# hdfs --daemon start namenode
[root@node02 ]# hdfs namenode -bootstrapStandby
[root@node01 ]# hdfs zkfc -formatZK
[root@node01 ]# start-dfs.sh
13.测试
http://10.1.1.58:9870
http://10.1.1.152:9870

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/713057.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号