栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

Hadoop详细集群搭建

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Hadoop详细集群搭建

Hadoop详细安装

环境:在虚拟机上,或者租一个服务器(用学生证可以认证白嫖喔,阿里云服务器等)
本机使用工具:VMware® Workstation 16 Pro、MobaXterm_Personal_10.5

1.Linux搭建集群(三台服务器)

需注意:个人电脑内存4G的只能搭建一台、8G或16G及以上的可以搭建两台及两台以上

1.1新建虚拟机











1.2克隆两台虚拟机



1.3网卡配置 1.3.1第一台hadoop001 (192.168.20.111)

先只启动hadoop001

vi /etc/sysconfig/network-scripts/ifcfg-ens33


按Esc后输入":wq",保存退出


接下来配置另外两台的网卡,记住一定要关闭第一台的!!!,然后再开始相同步骤配置第二台的,然后关闭第二台后再继续配第三台!!!否则没配好静态IP之前会IP地址会变动

1.3.2第二台hadoop002 (192.168.20.112)

1.3.3第三台hadoop003(192.168.20.113)

1.4将三台虚拟机连接到MobaXtem 1.4.1记住刚刚的三台虚拟机的网关(IP)

hadoop001 ------------192.168.20.111
hadoop002 ------------192.168.20.112
hadoop003 ------------192.168.20.113

1.4.2接下来改主机名便于操作:

[root@localhost ~]# hostnamectl set-hostname 新主机名

第二台第三台同理

1.4.3关闭防火墙

1.5部署Hadoop

环境准备:
上传HADOOP安装包
规划安装目录 /usr/local/hadoop-2.7.3
解压安装包
修改配置文件 /usr/local/hadoop-2.7.3/etc/hadoop/
最简化配置如下:

1.5.1上传HADOOP安装包

若需安装包可去我主页另一个破解软件专栏里有白嫖资源


1.5.2安装JDK

tar -zxvf /root/jdk-8u102-linux-x64.tar.gz -C /usr/local/

注意这里的“-C”C是大写的

1.5.3配置JDK环境变量

vi /etc/profile

source /etc/profile

1.5.4配置Hadoop环境变量

vi /etc/profile

source /etc/profile

1.5.5安装Hadoop

tar -zxvf /root/hadoop-2.7.3.tar.gz -C /usr/local/

修改配置文件(进入Hadoop的目录)

cd /usr/local/hadoop-2.7.3/etc/hadoop/

1.5.6修改配置文件 /usr/local/hadoop-2.7.3/etc/hadoop/ 1.5.6.1==vi hadoop-env.sh

vi hadoop-env.sh
The java implementation to use.
export JAVA_HOME=/usr/local/jdk1.8.0_102

1.5.6.2==vi core-site.xml

//##Namenode在哪里 ,临时文件存储在哪里


fs.defaultFS
hdfs://hadoop001:9000


hadoop.tmp.dir
/usr/local/hadoop-2.7.3/tmp

1.5.6.3==vi hdfs-site.xml
dfs.secondary.http.address dfs.namenode.name.dir /usr/local/hadoop-2.7.3/data/name dfs.datanode.data.dir /usr/local/hadoop-2.7.3/data/data dfs.replication 3 hadoop001:50090

1.5.6.4==Mv mapred-site.xml.tmp* mapred-site.xml vi mapred-site.xml
mapreduce.framework.name yarn

1.5.6.5==vi yarn-site.xml
yarn.resourcemanager.hostname hadoop001 yarn.nodemanager.aux-services mapreduce_shuffle

1.5.6.6==vi slaves

hadoop002
hadoop003

1.5.6.7总结


输入时注意别把也输入错误,注意格式

1.5.7修改host映射

需要使用主机名传递,需要修改host映射

vi /etc/hosts
192.168.20.111 hadoop001
192.168.20.112 hadoop002
192.168.20.113 hadoop003

1.5.8 设置免密登录SSH

安装免密登录客户端:yum install -y openssh-clients
生成公钥跟私钥:ssh-keygen
发送公钥跟私钥:ssh-copy-id spark01
注意:不紧要给别人发,也给自己发一份




如果配置免密时遇到问题可参考这篇文章:

https://blog.csdn.net/oba_gaga/article/details/80684059?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1.pc_relevant_paycolumn_v3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1.pc_relevant_paycolumn_v3&utm_relevant_index=2

1.5.9 分发

把第一台安装好的jdk和hadoop以及配置文件发送给另外两台==hosts文件、jdk安装后的文件夹、Hadoop安装后的文件夹、/etc/profile 文件
eg:scp -r /usr/local/jdk1.8.0_102 hadoop02:/usr/local/

scp -r /usr/local/jdk1.8.0_102 hadoop002:/usr/local/
scp -r /usr/local/jdk1.8.0_102 hadoop003:/usr/local/


scp -r /usr/local/hadoop-2.7.3 hadoop002:/usr/local/

scp -r /usr/local/hadoop-2.7.3 hadoop003:/usr/local/

scp -r /etc/profile hadoop002:/etc/profile
scp -r /etc/profile hadoop003:/etc/profile


2.启动集群

初始化HDFS(在hadoop001进行操作)(操作一次就ok)
在hadoop001号机子上执行

start-all.sh

3.验证集群 3.1JPS:

3.2网页查看:

192.168.20.111:50070
192.168.20.111:8088
【IP:端口号(50070与8088)】

3.3在安装过程有任何问题欢迎来私信我哦!!!
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/770503.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号