目录
一、上传工具
二、安装jdk
三、配置主机名与ip地址的映射关系
四、关闭防火墙
五、设置免密登录
六 、安装hadoop
一、上传工具
利用Moba工具将jdk1.8.0_131的安装包以及hadoop-2.7.7 的安装包上传至虚拟机中/opt/environment的目录下,解压jdk和hadoop的安装包:
tar -zxvf jdk-8u171-linux-x64.tar.gz
tar -zxvf hadoop-2.7.3.tar.gz
二、安装jdk
编辑/etc/profile文件
vi /etc/profile
添加以下内容:
export JAVA_HOME=/opt/environment/jdk1.8.0_171
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
让刚刚配置的环境变量生效
source /etc/profile
验证jdk是否安装成功:
java -version
说明jdk安装成功!
三、配置主机名与ip地址的映射关系
虚拟机中配置:
vi /etc/hosts
添加虚拟机的ip和主机名(master是我的主机名)
Windows中配置:
找到C:WindowsSystem32driversetc 下的hosts文件,添加完成记得保存此文件!
四、关闭防火墙
systemctl stop firewalld.service
systemctl disable firewalld.service
五、设置免密登录
ssh-keygen -t rsa (执行命令后,只需敲三次回车键)
cd ~/.ssh/
ssh-copy-id -i id_rsa.pub root@master
六 、安装hadoop
配置环境变量
vi /etc/profile添加以下内容:
export HADOOP_HOME=/opt/environment/jdk1.8.0_171
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin使环境变量生效
source /etc/profile验证hadoop是否生效可以使用
hdfs dfs -ls 命令出现hadoop相关说明生效了
systemctl stop firewalld.service
systemctl disable firewalld.service
ssh-keygen -t rsa (执行命令后,只需敲三次回车键)
cd ~/.ssh/
ssh-copy-id -i id_rsa.pub root@master
六 、安装hadoop
配置环境变量
vi /etc/profile添加以下内容:
export HADOOP_HOME=/opt/environment/jdk1.8.0_171
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin使环境变量生效
source /etc/profile验证hadoop是否生效可以使用
hdfs dfs -ls 命令出现hadoop相关说明生效了
- 配置环境变量
vi /etc/profile添加以下内容:
export HADOOP_HOME=/opt/environment/jdk1.8.0_171
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin使环境变量生效
source /etc/profile验证hadoop是否生效可以使用
hdfs dfs -ls 命令出现hadoop相关说明生效了
接下来就是对/opt/environment/hadoop-2.7.3/etc/hadoop下的文件进行配置
1、vi hadoop-env.sh 将jdk的路径添加进去
export JAVA_HOME=/opt/environment/jdk1.8.0_171
2、 vi hdfs-site.xml 将以下内容添加到
dfs.replication
2
dfs.permissions
false
3、vi core-site.xml 将以下内容添加到
fs.defaultFS
hdfs://master:9000
hadoop.tmp.dir
/training/hadoop-2.7.3/tmp
4、先将 mapred-site.xml.template 复制一份并改名为 mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
再对文件进行编辑 vi mapred-site.xml 将以下内容添加到
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
master:10020
mapreduce.jobhistory.webapp.address
master:19888
5、vi yarn-site.xml 将以下内容添加到
yarn.resourcemanager.hostname
master
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.log-aggregation-enable
true
yarn.log-aggregation.retain-seconds
604800
yarn.log.server.url
http://master:19888/jobhistory/logs
文件配置完毕,下一步是格式化HDFS
hdfs namenode -format
如格式化成功,在打印出来的日志可以看到如下信息:
Storage directory/opt/environment/jdk1.8.0_171/tmp/dfs/name has been successfully formatted.
启动hdfs 环境
启动服务:start-all.sh
启动mr历史服务: mr-jobhistory-daemon.sh start historyserver
最后进行验证:
jps查看hadoop进程:
在浏览器中输入192.168.43.129:50070(或者把ip换成主机名)访问HDFS可以看到:
访问yarn输入:master:8088



