一台装有CentOS 7 的虚拟机并且要能远程连接
JDK和Hadoop的安装包
两个软件 Xshell 和Xftp(或filezilla)
1.首先,将JDK和Hadoop的安装包通过Xftp传入虚拟机当然也可以用其他软件,下图用的是filezilla
)]
注意:我们将JDK放入/usr/local/java 而Hadoop放入/usr/local/hadoop,这样方便我们管理哦
2.我们要关闭系统的防火墙!!!systemctl disable firewalld #永久关闭防火墙 systemctl stop firewalld #暂时关闭防火墙3.修改用户名以及对应的IP
vi /etc/hostname #改为server1
vi /etc/hosts #改为server14.进行SSH免密互登设置
ssh-keygen -t dsa
在命令执行过程中敲击两遍回车
cd /usr/local/java2.解压jdk
tar -zxvf jdk-8u144-linux-x64.tar.gz #名称根据实际情况3.配置环境变量
vi /etc/profile
按 i 在最后插入以下
set java environment JAVA_HOME=/usr/local/java/jdk1.8.0_144 JRE_HOME=/usr/local/java/jdk1.8.0_144/jre CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin export JAVA_HOME JRE_HOME CLASS_PATH PATH
注意:其中 JAVA_HOME, JRE_HOME 请根据自己的实际安装路径及 JDK 版本配置。
4.让修改生效:source /etc/profile5. 测试
java -version
显示 java 版本信息,则说明 JDK 安装成功:
cd /usr/local/hadoop2.解压hadoop安装包
tar -zxvf hadoop-2.6.0.tar.gz3.新建几个目录
在/root目录下新建几个目录,复制粘贴执行下面的命令:
mkdir /root/hadoop mkdir /root/hadoop/tmp mkdir /root/hadoop/var mkdir /root/hadoop/dfs mkdir /root/hadoop/dfs/name mkdir /root/hadoop/dfs/data4. 修改etc/hadoop中的一系列配置文件
/usr/local/hadoop/hadoop/hadoop-2.6.0/etc/hadoop/
4.1我们先切换到该目录下,查看该目录下的文件cd /usr/local/hadoop/hadoop-2.6.0/etc/hadoop/4.2修改core-site.xml
vi core-site.xml
在节点内加入配置:
hadoop.tmp.dir /root/hadoop/tmp fs.defaultFS hdfs://server1:9000
**注意: hdfs://server1:9000 此处应与hostname保持一致 **
4.3修改hadoop-env.shvi hadoop-env.sh
将export JAVA_HOME=${JAVA_HOME}
修改为:
export JAVA_HOME=/usr/local/java/jdk1.8.0_144
说明:修改为自己的JDK路径。此处可以与系统JAVA环境一致,也可以单独配置。
4.4修改hdfs-site.xmlvi hdfs-site.xml
在 节点内加入配置:
4.5 修改mapred-site.xml.templatedfs.name.dir /root/hadoop/dfs/name dfs.data.dir /root/hadoop/dfs/data dfs.replication 1
vi mapred-site.xml.template
在 节点内加入配置:
4.5 修改yarn-site.xml文件mapred.job.tracker server1:49001 mapred.local.dir /root/hadoop/var mapreduce.framework.name yarn
vi yarn-site.xml
在 节点内加入配置:
四、启动Hadoop 1.切换到cd /usr/local/hadoopetc/hadoop/hadoop-2.6.0/binyarn.resourcemanager.hostname server1 yarn.resourcemanager.address ${yarn.resourcemanager.hostname}:8032 yarn.resourcemanager.scheduler.address ${yarn.resourcemanager.hostname}:8030 yarn.resourcemanager.webapp.address ${yarn.resourcemanager.hostname}:8088 yarn.resourcemanager.webapp.https.address ${yarn.resourcemanager.hostname}:8090 yarn.resourcemanager.resource-tracker.address ${yarn.resourcemanager.hostname}:8031 yarn.resourcemanager.admin.address ${yarn.resourcemanager.hostname}:8033 yarn.nodemanager.aux-services mapreduce_shuffle yarn.scheduler.maximum-allocation-mb 2048 yarn.nodemanager.vmem-pmem-ratio 2.1 yarn.nodemanager.resource.memory-mb 2048 yarn.nodemanager.vmem-check-enabled false
cd /usr/local/hadoopetc/hadoop/hadoop-2.6.0/bin2. 初始化
./hadoop namenode -format3.启动
cd /usr/local/hadoopetc/hadoop/hadoop-2.6.0/sbin
执行初始化脚本,也就是执行命令:
./start-all.sh
第一次执行上面的启动命令,会需要我们进行交互操作,在问答界面上输入yes回车。
4.验证访问访问:http://192.168.171.129:50070【IP:50070】
访问:http://192.168.171.129:8088【IP+8088】



