栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Hadoop的全分布模式安装

Hadoop的全分布模式安装

  1. 规划
    三台机器:bigdata1,bigdata2,bigdata3
    bigdata1作为主节点,剩下2台机器作为从节点
#以下操作只在主节点进行
#在root家目录下创建2个文件夹tools和training
#tools用来存储压缩文件包,training用于存放解压后的文件
mkdir /root/tools
mkdir /root/training

#将准备好的安装包上传到tools目录下
scp jdk-8u144-linux-x64.tar.gz  root@bigdata1:/root/tools
scp hadoop-2.8.4.tar.gz  root@bigdata1:/root/tools
  1. 准备工作

关闭防火墙

#以下操作3台机器均需要
systemctl stop firewalld.service
systemctl disable firewalld.service

设置主机名

#以下操作3台机器均需要
vi /etc/hosts

#添加以下内容
192.168.61.111 bigdata1
192.168.61.112 bigdata2
192.168.61.113 bigdata3

安装JDK

#以下操作只在主节点进行
#解压JDK文件到training中
tar -zxvf /root/tools/jdk-8u144-linux-x64.tar.gz -C /root/training

#修改文件名,方便以后jdk版本切换
mv /root/training/jdk1.8.0_144 /root/training/jdk

#修改配置文件
vi /root/.bash_profile

#在最后添加以下内容
JAVA_HOME=/root/training/jdk
export JAVA_HOME
PATH=$JAVA_HOME/bin:$JAVA_HOME/lib:$PATH
export PATH

#保存文件

#使配置文件生效
source /root/.bash_profile

#查看是否生效
java -version
  1. 配置免密码登录
#以下操作在每台机器上都要做一遍
#在每台机器上产生公钥和私钥
ssh-keygen -t rsa

#将每台机器的公钥发送给其他机器(包括自己)
ssh-copy-id -i /root/.ssh/id_rsa.pub root@bigdata1
ssh-copy-id -i /root/.ssh/id_rsa.pub root@bigdata2
ssh-copy-id -i /root/.ssh/id_rsa.pub root@bigdata3
  1. 保证每台机器的时间同步
  2. 安装Hadoop全分布环境
#以下操作在主节点进行
#解压hadoop压缩文件到training文件夹中
tar -zxvf /root/tools/hadoop-2.8.4.tar.gz -C /root/training

#修改文件名,方便以后jdk版本切换
mv /root/training/hadoop-2.8.4 /root/training/hadoop

#修改配置文件
vi /root/.bash_profile

#在最后添加以下内容
HADOOP_HOME=/root/training/hadoop
export HADOOP_HOME
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export PATH

#保存文件

#使配置文件生效
source /root/.bash_profile

以下为修改hadoop配置文件
hadoop-env.sh

vi /root/training/hadoop/etc/hadoop/hadoop-env.sh

#修改地25行内容,可以通过set number查看行号
export JAVA_HOME=/root/training/jdk

hdfs-site.xml

vi /root/training/hadoop/etc/hadoop/hdfs-site.xml

#添加以下内容



    dfs.replication
    2




    dfs.permissions
    false

core-site.xml

#首先需要创建一个tmp目录
mkdir /root/training/hadoop/tmp
vi /root/training/hadoop/etc/hadoop/core-site.xml

#添加以下内容



    fs.defaultFS
    hdfs://bigdata1:9000





    hadoop.tmp.dir
    /root/training/hadoop/tmp

mapred-site.xml

#该文件默认不存在,但是存在一个template文件可以复制
cp /root/training/hadoop/etc/hadoop/mapred-site.xml.template /root/training/hadoop/etc/hadoop/mapred-site.xml
vi /root/training/hadoop/etc/hadoop/mapred-site.xml

#添加以下内容


    mapreduce.framework.name
    yarn

yarn-site.xml

vi /root/training/hadoop/etc/hadoop/yarn-site.xml

#添加以下内容


    yarn.resourcemanager.hostname
    bigdata1




    yarn.nodemanager.aux-services
    mapreduce_shuffle

slaves 配置从节点地址

vi /root/training/hadoop/etc/hadoop/slaves

#修改成以下内容
bigdata2
bigdata3

进行NameNode格式化

hdfs namenode -format

6.将配置好的目录复制到从节点上

scp -r /root/training root@bigdata2:/root
scp -r /root/training root@bigdata3:/root
scp /root/.bash_profile root@bigdata2:/root
scp /root/.bash_profile root@bigdata3:/root

#在从节点上使配置文件生效
source /root/.bash_profile
  1. 启动集群
#在主节点进行
start-all.sh
  1. 查看是否启动成功
#分别在3台机器执行jps
jps

看到以下结果说明集群搭建成功
主节点:jps,NameNode,SecondaryNameNode,ResourceManager
从节点:jps,DataNode,NodeManager
9. 查看集群情况

hdfs dfsadmin -report

或者查看网页
HDFS:http://192.168.61.111:50070
Yarn:http://192.168.61.111:8088

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/652649.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号