栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

hadoop伪分布部署

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

hadoop伪分布部署

目录

一、上传工具

二、安装jdk

三、配置主机名与ip地址的映射关系

四、关闭防火墙

 五、设置免密登录

六 、安装hadoop


一、上传工具

利用Moba工具将jdk1.8.0_131的安装包以及hadoop-2.7.7 的安装包上传至虚拟机中/opt/environment的目录下,解压jdk和hadoop的安装包:

tar -zxvf jdk-8u171-linux-x64.tar.gz

tar -zxvf hadoop-2.7.3.tar.gz 

二、安装jdk

编辑/etc/profile文件

vi /etc/profile

添加以下内容:

export JAVA_HOME=/opt/environment/jdk1.8.0_171
 export JRE_HOME=$JAVA_HOME/jre
 export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
 export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

让刚刚配置的环境变量生效

source  /etc/profile

验证jdk是否安装成功:

java -version 

 

说明jdk安装成功!

三、配置主机名与ip地址的映射关系

虚拟机中配置: 

vi /etc/hosts

 

添加虚拟机的ip和主机名(master是我的主机名)

Windows中配置:

找到C:WindowsSystem32driversetc 下的hosts文件,添加完成记得保存此文件!

四、关闭防火墙

systemctl stop firewalld.service
systemctl disable firewalld.service

 五、设置免密登录

 ssh-keygen -t rsa (执行命令后,只需敲三次回车键)
 cd ~/.ssh/ 
​​​​​​​ ssh-copy-id -i id_rsa.pub root@master

六 、安装hadoop
    配置环境变量
    vi /etc/profile添加以下内容:
    export HADOOP_HOME=/opt/environment/jdk1.8.0_171
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin使环境变量生效
    source  /etc/profile验证hadoop是否生效可以使用
    hdfs dfs -ls 命令出现hadoop相关说明生效了

接下来就是对/opt/environment/hadoop-2.7.3/etc/hadoop下的文件进行配置
1、vi hadoop-env.sh     将jdk的路径添加进去

export JAVA_HOME=/opt/environment/jdk1.8.0_171

2、 vi hdfs-site.xml   将以下内容添加到之间


 dfs.replication
 2


 dfs.permissions
 false

3、vi core-site.xml   将以下内容添加到之间(master是我的主机名,你可以更改为你的主机名再复制)


   fs.defaultFS
   hdfs://master:9000


   hadoop.tmp.dir
   /training/hadoop-2.7.3/tmp

 4、先将 mapred-site.xml.template 复制一份并改名为 mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

再对文件进行编辑 vi mapred-site.xml   将以下内容添加到之间,master是我的主机名,你可以更改为你的主机名再复制)


mapreduce.framework.name
yarn



mapreduce.jobhistory.address
master:10020



mapreduce.jobhistory.webapp.address
master:19888

5、vi yarn-site.xml    将以下内容添加到之间,master是我的主机名,你可以更改为你的主机名再复制)



   yarn.resourcemanager.hostname
   master



   yarn.nodemanager.aux-services
   mapreduce_shuffle



yarn.log-aggregation-enable
true



yarn.log-aggregation.retain-seconds
604800



yarn.log.server.url
http://master:19888/jobhistory/logs

文件配置完毕,下一步是格式化HDFS

hdfs namenode -format 

如格式化成功,在打印出来的日志可以看到如下信息:
Storage directory/opt/environment/jdk1.8.0_171/tmp/dfs/name has been successfully formatted. 

启动hdfs 环境

启动服务:start-all.sh

启动mr历史服务: mr-jobhistory-daemon.sh start historyserver

最后进行验证:

jps查看hadoop进程:

在浏览器中输入192.168.43.129:50070(或者把ip换成主机名)访问HDFS可以看到:

 访问yarn输入:master:8088

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/762712.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号