栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Hadoop2.8.5详细教程(五)Hadoop全分布式搭建

Hadoop2.8.5详细教程(五)Hadoop全分布式搭建

一、haoop解压、创建软连接
将hadoop-2.8.5.tar.gz上传到hp01服务器/apps下
tar -xf hadoop-2.8.5.tar.gz -C /usr/local
进入/usr/local 后使用 ln -s hadoop-2.8.5 hadoop2 创建一个软连接

二、配置环境变量
在/etc/profile.d下使用vi命令新建hadoop.sh

export  HADOOP_HOME=/usr/local/hadoop2
export  PATH=$PATH:$HADOOP_HOME/bin
export  PATH=$PATH:$HADOOP_HOME/sbin

后两个可不写

export  LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
export  HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

以上可复制到vi编辑器中:

保存,调用 source hadoop.sh
测试版本号 hadoop version

三、配置hadoop环境脚本中的java参数
在hadoop2/etc/hadoop下的

[root@hadoop01 hadoop]#  vim hadoop-env.sh 
[root@hadoop01 hadoop]#  vim mapred-env.sh
[root@hadoop01 hadoop]#  vim yarn-env.sh

全部添加上export JAVA_HOME=${JAVA_HOME}

四、创建Hadoop存储目录,在/目录下新建三个文件

[root@hp01 /]# mkdir -p  hadoop_data/tmp
[root@hp01 /]# mkdir -p  hadoop_data/dfs/name
[root@hp01 /]# mkdir    hadoop_data/dfs/data

五、配置主从结点
删除hadoop2/etc/hadoop/slaves中配置,将hp02、hp03添加到slaves中作为集群的slaves(一行一个)

六、Hadoop文件配置
配置core-site.xml



fs.defaultFS
hdfs://hp01:9000


io.file.buffer.size
131072


hadoop.tmp.dir
file:/hadoop_data/tmp


配置改hdfs-site.xml



dfs.namenode.secondary.http-address
hp01:9001


dfs.namenode.name.dir
file:/hadoop_data/dfs/name


dfs.datanode.data.dir
file:/hadoop_data/dfs/data


dfs.replication
2


dfs.webhdfs.enabled
true


yarn-site.xml:

  
		  
			yarn.nodemanager.aux-services
			mapreduce_shuffle
		
		
			yarn.nodemanager.aux-services.mapreduce.shuffle.class
			org.apache.hadoop.mapred.ShuffleHandler
		
		
			yarn.resourcemanager.address
			hp01:8032
		
		
			yarn.resourcemanager.scheduler.address
			hp01:8030
		
		
			yarn.resourcemanager.resource-tracker.address
			hp01:8031
		
		
			yarn.resourcemanager.admin.address
			hp01:8033
		
		
			yarn.resourcemanager.webapp.address
			hp01:8088
		

mapred-site-xml:
复制文件:
cp mapred-site.xml.template mapred-site.xml


	mapreduce.framework.name
	yarn


	mapreduce.jobhistory.address
	hp01:10020


	mapreduce.jobhistory.webapp.address
	hp01:19888


七、分发hp01的配置到hp02、hp03:

将hadoop远程复制到hp02 hp03上

[root@hp01 /]# scp -r /usr/local/hadoop-2.8.5/  hp02:/usr/local
[root@hp01 /]# scp -r /usr/local/hadoop-2.8.5/  hp03:/usr/local

然后分别在hp02、hp03建一个软连接。 ln -s hadoop-2.8.5 hadoop2

将hadoop 环境变量远程复制到hp02 hp03上

[root@hp01 /]# scp -r /etc/profile.d/hadoop.sh  hp02:/etc/profile.d
[root@hp01 /]#scp -r /etc/profile.d/hadoop.sh  hp03:/etc/profile.d

并在hp02、hp03中分别调用source hadoop.sh

将文件夹分发:

[root@hp01 /]# scp -r hadoop_data/  hp02:/
[root@hp01 /]# scp -r hadoop_data/  hp03:/

测试版本号 hadoop version

八、格式化主节点的存储目录
只对hp01的hadoop_data格式化。
第一次启动hadoop是需要格式化hadoop的namenode
命令:hdfs namenode –format
九、启动hadooop
启动dfs
命令:start-dfs.sh
启动yarn
命令:start-yarn.sh

通过jps命令,可以查看hadoop启动的进程
关闭yarn
命令:stop-yarn.sh
关闭dsf
命令:stop-dfs.sh

十、测试hadoop安装
在web页面中查看hdfs和yarn
http://192.168.150.101:50070
http://192.168.150.101:8088

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/300911.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号