| 系统镜像/软件 | 下载地址 |
|---|---|
| CentOS-7-x86_64-DVD-2009.iso | 下载链接 |
| jdk-8u202-linux-x64.tar.gz | 下载链接 |
| hadoop-2.7.7.tar.gz | 下载链接 |
hostnamectl set-hostname 主机名2. MAC地址配置
3. ip地址配置1网络适配器高级设置、随机生成MAC
master:192.168.1.1 slave1:192.168.1.2 slave2:192.168.1.3 gateway:192.168.1.254 netmask:255.255.255.0 windows(VMnet8):192.168.1.4
修改网卡配置信息
cd /etc/sysconfig/network-scripts/
vim ifcfg-ens33
[root@master ~]# TYPE="Ethernet" PROXY_METHOD="none" BROWSER_ONLY="no" BOOTPROTO="static" DEFROUTE="yes" IPV4_FAILURE_FATAL="no" IPV6INIT="yes" IPV6_AUTOCONF="yes" IPV6_DEFROUTE="yes" IPV6_FAILURE_FATAL="no" IPV6_ADDR_GEN_MODE="stable-privacy" NAME="ens33" UUID="e896b704-392e-4e44-ad67-a8ba4357a546" DEVICE="ens33" IPADDR=192.168.1.1 NETMASK=255.255.255.0 GATEWAY=192.168.1.254 ONBOOT="yes"
| [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1zP3DHaW-1636618470102)(https://i.loli.net/2021/09/15/zRZiKorvChAbla2.png)] |
|---|
重启网络服务
systemctl restart network4. 主机名与IP映射1
#编辑hosts vi /etc/hosts
添加映射关系(每个主机都要配置)
192.168.1.1 master 192.168.1.2 slave1 192.168.1.3 slave25. 配置SSH免密登录
此项只需在master中配置
#进入用户目录 cd /home/sunshj #生成密钥,回车即可 ssh-keygen -t rsa #到.ssh目录下 cd .ssh/ #将id_rsa.pub添加到authorized_keys目录 cp id_rsa.pub authorized_keys ssh-copy-id -i slave1 ssh-copy-id -i slave2二、安装配置java环境 1. 安装包安装
解压到home/用户文件夹
tar -zxvf jdk-8u202-linux-x64.tar.gz
修改目录名
mv jdk1.8.0_202 jdk1.82. 配置环境变量
配置用户级环境变量
这里只需要配置用户级环境变量
vim .bashrc
添加变量
export JAVA_HOME=/home/sunshj/jdk1.8
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
立即生效
source .bashrc3. 复制文件到子节点
复制jdk1.8到子节点
scp -r /home/sunshj/jdk1.8 sunshj@slave1:/home/sunshj/ scp -r /home/sunshj/jdk1.8 sunshj@slave2:/home/sunshj/
复制.bashrc到子节点
scp -r .bashrc sunshj@slave1:/home/sunshj/ scp -r .bashrc sunshj@slave2:/home/sunshj/
立即生效
source .bashrc三、安装配置Hadoop 1. 安装包安装
tar -zxvf hadoop-2.7.7.tar.gz2. 配置.bashrc环境变量
export HADOOP_HOME=/home/sunshj/hadoop-2.7.7 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HADOOP_INSTALL=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native3. 修改hadoop配置文件
cd hadoop-2.7.7/etc/hadoop/
core-site.xml
vim core-site.xml
在configuration中添加
fs.defaultFS hdfs://master:9000 hadoop.tmp.dir file:/home/sunshj/hadoop-2.7.7/tmp Abase for other temporary directories.
hadoop-env.sh添加内容
export JAVA_HOME=/home/sunshj/jdk1.8
hdfs-site.xml
vim hdfs-site.xml
dfs.namenode.secondary.http-address master:50090 dfs.replication 1 dfs.namenode.name.dir file:/home/sunshj/hadoop-2.7.7/tmp/dfs/name dfs.datanode.data.dir file:/home/sunshj/hadoop-2.7.7/tmp/dfs/data
mapred-site.xml.template --> mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888
yarn-site.xml
vim yarn-site.xml
yarn.resourcemanager.hostname master yarn.nodemanager.aux-services mapreduce_shuffle
slaves
vim slaves
#删除localhost slave1 slave24. 复制文件到子节点
复制hadoop到子节点
scp -r /home/sunshj/hadoop-2.7.7 sunshj@slave1:/home/sunshj/ scp -r /home/sunshj/hadoop-2.7.7 sunshj@slave2:/home/sunshj/
复制.bashrc到子节点
scp -r .bashrc sunshj@slave1:/home/sunshj/ scp -r .bashrc sunshj@slave2:/home/sunshj/
立即生效
source .bashrc5. 格式化1
关闭enforce
切换到root用户
vi /etc/selinux/config
修改SELINUX
SELINUX=disabled
退出root,格式化
hdfs namenode -format6. 启动hadoop
请在启动前打开集群
运行全部
start-all.sh
关闭全部
stop-all.sh
- NameNode and Datanode: http://master:50070
- mapreduce: http://master:8088/cluster
关闭虚拟机前关闭hadoop!!!
每个节点都需操作此步骤 ↩︎ ↩︎ ↩︎



