栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

搭建Hadoop集群简历上怎么写(mac上搭建hadoop集群)

搭建Hadoop集群简历上怎么写(mac上搭建hadoop集群)

目录

1.克隆虚拟机2.配置主机ip映射3.ssh免密码登录4.搭建Hadoop高可用集群

4.1安装ZooKeeper4.2配置ZooKeeper 5.安装hadoop6.启动与测试hadoop

1.克隆虚拟机

请自行克隆,克隆完得到01、02、03三台虚拟机。

2.配置主机ip映射

修改02虚拟机的主机名为hadoop02,03虚拟机修改为hadoop03
vim /etc/hostname
修改hadoop02虚拟机的IPADDR最后一位为202
修改hadoop03虚拟机的IPADDR最后一位为203
vim /etc/sysconfig/network-scripts/ifcfg-ens33
重启02和03
修改01、02、03的hosts文件
vim /etc/hosts
添加ip映射

使用01ping02和03,ping通且地址正确。

3.ssh免密码登录

在三台虚拟机分别执行ssh-keygen,然后连点回车。
在三台虚拟机分别执行以下命令,执行过程中需要输入yes和用户密码
ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03
测试用01连接登录02和03

4.搭建Hadoop高可用集群 4.1安装ZooKeeper

在hadoop01中打开火狐浏览器
访问官方下载网址
https://archive.apache.org/dist/zookeeper/zookeeper-3.4.12/zookeeper-3.4.12.tar.gz
把下载好的压缩包放入/opt/packages文件夹
进入到packages目录cd /opt/packages
解压缩
tar -zxvf zookeeper-3.4.12.tar.gz -C /opt/programs

4.2配置ZooKeeper

进入ZooKeeper的目录cd /opt/programs/zookeeper-3.4.12
创建文件夹data和logs
mkdir data
mkdir logs
进入data文件夹cd data
新建一个名为myid的文件,并写入id号为1
echo '1' > myid
进入zookeeper文件夹下的conf文件夹cd ../conf
将zoo_sample.cfg文件复制并重命名为zoo.cfg
cp zoo_sample.cfg zoo.cfg
编辑zoo.cfg文件vim zoo.cfg
dataDir改为如下图,最后四行加上如下图
dataDir=/opt/programs/zookeeper-3.4.12/data

dataLogDir=/opt/programs/zookeeper-3.4.12/logs
server.1=hadoop01:2888:3888
server.2=hadoop02:2888:3888
server.3=hadoop03:2888:3888

执行以下命令将hadoop01的ZooKeeper复制到hadoop02和hadoop03
scp -r /opt/programs/zookeeper-3.4.12 root@hadoop02:/opt/programs/
scp -r /opt/programs/zookeeper-3.4.12 root@hadoop03:/opt/programs/
打开hadoop02,修改myid为2
vim /opt/programs/zookeeper-3.4.12/data/myid
打开hadoop03,修改myid为3
vim /opt/programs/zookeeper-3.4.12/data/myid
在三个虚拟机上分别为zookeeper配置环境变量
编辑环境变量文件vim /etc/profile
在文件末尾添加下面两行
export ZOOKEEPER_HOME=/opt/programs/zookeeper-3.4.12
export PATH=$PATH:$ZOOKEEPER_HOME/bin
在三台虚拟机上分别执行source /etc/profile刷新环境配置
在三台虚拟机上分别执行zkServer.sh start启动ZooKeeper集群
如下图则启动成功

执行zkServer.sh status查看ZooKeeper集群状态


执行zkServer.sh stop停止ZooKeeper服务

5.安装hadoop

在虚拟机中打开火狐浏览器下载或者Windows下载好后用winscp传输到虚拟机。
https://archive.apache.org/dist/hadoop/core/hadoop-2.7.6/hadoop-2.7.6.tar.gz
进入压缩包所在的目录cd /opt/packages解压缩
tar -zxvf hadoop-2.7.6.tar.gz -C /opt/programs
进入hadoop目录cd /opt/programs/hadoop-2.7.6/etc/hadoop
修改配置文件vim core-site.xml
文件内容如下







 
        
                fs.defaultFS
	hdfs://ns
        
       
                hadoop.tmp.dir
                /opt/programs/hadoop-2.7.6/tmp
        
       
                ha.zookeeper.quorum
                hadoop01:2181,hadoop02:2181,hadoop03:2181
        

修改配置文件vim hdfs-site.xml
文件内容如下








         
                dfs.replication
                3
        
        
                dfs.nameservices
                ns
        
        
                dfs.ha.namenodes.ns
                nn1,nn2
        
        
                dfs.namenode.rpc-address.ns.nn1
                hadoop01:9000
        
        
                dfs.namenode.http-address.ns.nn1
                hadoop01:50070
        
        
                dfs.namenode.rpc-address.ns.nn2
                hadoop02:9000
        
        
                dfs.namenode.http-address.ns.nn2
                hadoop02:50070
        
        
                dfs.namenode.shared.edits.dir
                qjournal://hadoop01:8485;hadoop02:8485;hadoop03:8485/ns
        
        
                dfs.journalnode.edits.dir
                /opt/programs/hadoop-2.7.6/journal/data
        
        
                dfs.ha.automatic-failover.enabled
                true
        
        
                dfs.client.failover.proxy.provider.ns
                org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
        
        
                dfs.ha.fencing.methods
                
                        sshfence
                        shell(/bin/true)
                
        
        
                dfs.ha.fencing.ssh.private-key-files
                /root/.ssh/id_rsa
        
        
                dfs.ha.fencing.ssh.connect-timeout
                30000
        

修改配置文件vim mapred-site.xml
文件内容如下









        
                mapreduce.framework.name
                yarn
        

修改配置文件vim yarn-site.xml
文件内容如下




       
                yarn.resourcemanager.ha.enabled
                true
        
        
                yarn.resourcemanager.cluster-id
                yrc
        
        
                yarn.resourcemanager.ha.rm-ids
                rm1,rm2
        
        
                yarn.resourcemanager.hostname.rm1
                hadoop01
        
        
                yarn.resourcemanager.hostname.rm2
                hadoop02
        
        
                yarn.resourcemanager.zk-address
                hadoop01:2181,hadoop02:2181,hadoop03:2181
        
        
                yarn.nodemanager.aux-service
                mapreduce_shuffle
        

修改slaves文件vim slaves
localhost改为以下内容

hadoop01
hadoop02
hadoop03

修改hadoop-evn.sh文件内JAVA_HOME的路径,我用的是jkd8的321版本。
vim hadoop-evn.sh

在mapred-env.sh文件内添加JAVA_HOME的路径

vim mapred-env.sh

打开yarn-env.sh文件
vim yarn-env.sh
在JAVA_HOME所在的一行,删除注释符井号,并修改路径

执行以下命令将hadoop01的hadoop配置复制到hadoop02和hadoop03
scp -r /opt/programs/hadoop-2.7.6 root@hadoop02:/opt/programs/
scp -r /opt/programs/hadoop-2.7.6 root@hadoop03:/opt/programs/
为三台hadoop配置环境变量vim /etc/profile
文件末尾添加以下两行

export HADOOP_HOME=/opt/programs/hadoop-2.7.6
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile刷新环境配置

6.启动与测试hadoop

在三台虚拟机上分别启动JournalNode
hadoop-daemon.sh start journalnode

在hadoop01格式化NameNode,执行此命令时要保证三台机子都已启动ZooKeeper和JournalNode
hdfs namenode -format

随之出现一堆如图所示的东西,格式化成功并且在hadoop目录生成了一个tmp文件夹
进入hadoop目录cd /opt/programs/hadoop-2.7.6
执行以下命令将hadoop01的tmp文件夹复制到hadoop02
scp -r tmp/ root@hadoop02:/opt/programs/hadoop-2.7.6
此时NameNode分别存在于hadoop01和hadoop02,防止NameNode存在的hadoop01宕机导致NameNode不可用,就会造成整个集群无法访问,hadoop02的NameNode处于备用状态。

在hadoop01格式化ZKFC
hdfs zkfc -formatZK

在hadoop01执行以下命令,启动HDFS和YARN
start-dfs.sh
start-yarn.sh

在三台虚拟机分别执行jps查看启动的进程



在物理主机输入网址 http://192.168.0.201:8088/cluster
访问http://192.168.0.201:50070

访问http://192.168.0.201:50070

成功!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/771390.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号