- 免登录设置
- CentOS7配置静态IP和网关
- 添加主机名与IP地址映射
- 配置网关
- 配置IP地址
- 生成公钥和私钥
- 将公钥拷贝到要免密登录的目标机器上
- JDK安装和环境变量配置
- 解压到指定文件夹
- 创建软链接(操作方便:可以认为是给jdk1.8.0_311目录起了一个别名叫jdk)
- JDK配置全局环境变量
- JDK配置只对当前root用户生效的环境变量
- 使环境变量立即生效
- Hadoop安装环境变量配置
- 解压hadoop包
- 创建软链接(操作方便:可以认为是给jdk1.8.0_311目录起了一个别名叫jdk)
- Hadoop环境全局变量配置
- Hadoop用户生效的环境变量
- 启动检查
- 重启
- Hadoop集群配置启动HDFS并运行MapReduce程序
- Hadoop配置文件所在目录、切换到目录`/etc/hadoop`
- 修改hadoop-env.sh文件 找到JAVA_HOME参数位置
- 修改vim ==core-site.xml== 该文件是Hadoop的核心配置文件,其目的是==配置HDFS地址==、==端口号==,以及==临时文件目录==。
- 修改vim ==hdfs-site.xml== 文件该文件用于设置`HDFS`的 `NameNode` 和 `DataNode`两大进程。
- 修改 ==mapred-site.xml== 该文件是 `MapReduce` 的核心配置文件,用于指定 `MapReduce` 运行时框架。在hadoop/目录中默认没有该文件,需要先通过 ==cp mapred-site.xml.template mapred-site.xml==
- 修改 ==yarn-site.xml== 文件 `YARN 框架的核心`配置文件,需要指定YARN`集群的管理者`。
- 添加主机名,删除默认的`localhost`
- 将Coentos7集群`主节点`的配置文件拷贝到其他`子节点`
- 环境变量配置拷贝到另外两台Centos电脑上
- 拷贝覆盖Hadoop,JDK文件整个文件传输
- Hadoop集群测试
- 格式化Hadoop命令
- 启动Hadoop集群(启动前必须保证NameNode和DataNode已经启动)
- 启动ResourceManager
- 启动NodeManager
- 全部启动
- 全部关闭
- 输入jps查看
- YARN的浏览器页面查看
- 关闭防火墙
- 输入(集群服务IP+端口号)和(主机名加端口号)查看HDFS端口
- 实列图
CentOS7 1主机名
[root@Master2 ~]vim /etc/hostname
CentOS7 2主机名
[root@Slave3 sbin]vim /etc/hostname
CentOS7 3主机名
[root@Slav4 sbin]vim /etc/hostname添加主机名与IP地址映射
vim /etc/hosts
每台都一样
获取网关
ifconfig
[root@Master2 ~]vim /etc/sysconfig/network
NETWORKING=yes 配置是否联网
HOSTNAME=Master2 配置主机名
GATEWAY=172.16.24.254 配置网关
[root@Master2 ~]vim /etc/sysconfig/network-scripts/ifcfg-enp3s0 TYPE="Ethernet" PROXY_METHOD="none" BROWSER_onLY="no" BOOTPROTO="static" 设置为静态IP模式 DEFROUTE="yes" IPADDR=172.16.24.200 设置静态IP NETMASK=255.255.255.0 设置子网掩码 IPV4_FAILURE_FATAL="no" IPV6INIT="yes" IPV6_AUTOCONF="yes" IPV6_DEFROUTE="yes" IPV6_FAILURE_FATAL="no" IPV6_ADDR_GEN_MODE="stable-privacy" NAME="enp3s0" UUID="ddc227be-8516-4d71-8890-c550d764ef11" DEVICE="enp3s0" onBOOT="yes" 开机生效生成公钥和私钥
ssh-keygen -t rsa (按三次回车)将公钥拷贝到要免密登录的目标机器上
ssh-copy-id master2 ssh-copy-id slave3 ssh-copy-id slave4
需要输入每个拷贝的对应的机器密码.
测试是否能免密登陆
ssh slave4
[root@Master2 src] ssh slave4 Last login: Wed Oct 27 19:30:21 2021 from 172.16.24.12 [root@Slav4 ~]JDK安装和环境变量配置 解压到指定文件夹
tar zxvf
[root@Slave3 h3cu] tar zxvf /h3cu/jdk-8u311-linux-x64.tar.gz -C /usr/local/src/创建软链接(操作方便:可以认为是给jdk1.8.0_311目录起了一个别名叫jdk)
注意:不熟悉的不要设置。
ln -s /usr/local/src/jdk1.8.0_311 /usr/local/src/jdk
使用mv重新命名。
mv /usr/local/src/jdk1.8.0_311 /usr/local/src/jdkJDK配置全局环境变量
vim /etc/profile
添加内容: export JAVA_HOME=/usr/local/src/jdk export PATH=$JAVA_HOME/bin:$PATH CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarJDK配置只对当前root用户生效的环境变量
.bash_profile
[root@Slave3 h3cu] vim /root/.bash_profile
添加以下变量路径 #jdk export JAVA_HOME=/usr/local/src/jdk PATH=.:$JAVA_HOME:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH:$HOME/bin使环境变量立即生效
source /etc/profile source /root/.bash_profileHadoop安装环境变量配置 解压hadoop包
tar -zxvf /h3cu/hadoop-2.7.7.tar.gz -C /usr/local/src/创建软链接(操作方便:可以认为是给jdk1.8.0_311目录起了一个别名叫jdk)
ln -s /usr/local/src/hadoop-2.7.7 /usr/local/src/hadoopHadoop环境全局变量配置
vim /etc/profile #jdk export JAVA_HOME=/usr/local/src/jdk export PATH=$JAVA_HOME/bin:$PATH #hadoop export HADOOP_HOME=/usr/local/src/hadoop-2.7.7 export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbinHadoop用户生效的环境变量
.bash_profile
vim /root/.bash_profile #jdk export JAVA_HOME=/usr/local/src/jdk/ #hadoop export HADOOP_HOME=/usr/local/src/hadoop-2.7.7 PATH=.:$JAVA_HOME:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH:$HOME/bin
使环境变量立即生效
source /etc/profile source /root/.bash_profile启动检查
java
hadoop version
注意:如果配置完后输入Hadoop version没有反应需要重新启动机器,还是没有反应就需要检查自己是否配错环境变量。
rebootHadoop集群配置启动HDFS并运行MapReduce程序 Hadoop配置文件所在目录、切换到目录/etc/hadoop
查看我的目录所在pwd [root@Master2 hadoop]pwd /usr/local/src/hadoop/etc/hadoop 切换目录 /usr/local/src/hadoop/etc/hadoop修改hadoop-env.sh文件 找到JAVA_HOME参数位置
vim hadoop-env.sh export JAVA_HOME=//usr/local/src/jdk修改vim core-site.xml 该文件是Hadoop的核心配置文件,其目的是配置HDFS地址、端口号,以及临时文件目录。
vim core-site.xml修改vim hdfs-site.xml 文件该文件用于设置HDFS的 NameNode 和 DataNode两大进程。fs.defaultFS hdfs://master2:9000 hadoop.tmp.dir /usr/local/src/hadoop-2.7.7/tmp
vim hdfs-site.xml修改 mapred-site.xml 该文件是 MapReduce 的核心配置文件,用于指定 MapReduce 运行时框架。在hadoop/目录中默认没有该文件,需要先通过 cp mapred-site.xml.template mapred-site.xmldfs.replication 3
cp mapred-site.xml.template mapred-site.xml vim mapred-site.xml修改 yarn-site.xml 文件 YARN 框架的核心配置文件,需要指定YARN集群的管理者。mapreduce.framework.name yarn
同时配置了NodeManager运行时的附属服务,需要配置为 mapreduce_shuffle 才能正常运行 MapReduce默认程序。
vim yarn-site.xml添加主机名,删除默认的localhostyarn.resourcemanager.hostname Master2 yarn.nodemanager.aux-services mapreduc_shuffle
vim slaves master2 slave3 slave4
前面的hdfs-site.xml指定了HDFS服务副本数量为3
将Coentos7集群主节点的配置文件拷贝到其他子节点 环境变量配置拷贝到另外两台Centos电脑上#系统变量 scp -r /etc/profile Slave3:/etc/profile scp -r /etc/profile Slave4:/etc/profile #用户变量 scp -r /root/.bash_profile Slave3:/root/.bash_profile scp -r /root/.bash_profile Slave4:/root/.bash_profile拷贝覆盖Hadoop,JDK文件整个文件传输
scp -r /usr/local/src/ Slave3:/usr/local/ scp -r /usr/local/src/ Slave4:/usr/local/Hadoop集群测试 格式化Hadoop命令
hdfs namenode -format启动Hadoop集群(启动前必须保证NameNode和DataNode已经启动) 启动ResourceManager
yarn-daemon.sh start resourcemanager启动NodeManager
yarn-daemon.sh start nodemanager全部启动
#不想使用一个一个命令 cd /usr/local/src/hadoop/sbin start-all.sh全部关闭
cd /usr/local/src/hadoop/sbin输入jps查看
有一下三个代表已经成功启动
28675 Jps 6087 NameNode 10151 ResourceManagerYARN的浏览器页面查看 关闭防火墙
service iptables stop输入(集群服务IP+端口号)和(主机名加端口号)查看HDFS端口
http://172.16.24.100:8088/cluster master2:50070 master2:8088实列图
有一下结果Hadoop集群安装已成功



