栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

Linux配置Hadoop单机模式

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

Linux配置Hadoop单机模式

Linux配置Hadoop单机模式 一、准备工作

一台装有CentOS 7 的虚拟机并且要能远程连接

JDK和Hadoop的安装包

两个软件 Xshell 和Xftp(或filezilla)

1.首先,将JDK和Hadoop的安装包通过Xftp传入虚拟机

当然也可以用其他软件,下图用的是filezilla

)]

注意:我们将JDK放入/usr/local/java 而Hadoop放入/usr/local/hadoop,这样方便我们管理哦

2.我们要关闭系统的防火墙!!!
systemctl disable firewalld     #永久关闭防火墙
systemctl stop firewalld		#暂时关闭防火墙

3.修改用户名以及对应的IP
vi /etc/hostname	#改为server1

vi /etc/hosts		#改为server1

4.进行SSH免密互登设置
ssh-keygen -t dsa

在命令执行过程中敲击两遍回车

二、安装JAVA环境 1. 我们先切换到/usr/local/java
cd /usr/local/java

2.解压jdk
tar -zxvf jdk-8u144-linux-x64.tar.gz     #名称根据实际情况
3.配置环境变量
vi /etc/profile

按 i 在最后插入以下

set java environment
JAVA_HOME=/usr/local/java/jdk1.8.0_144
JRE_HOME=/usr/local/java/jdk1.8.0_144/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH

注意:其中 JAVA_HOME, JRE_HOME 请根据自己的实际安装路径及 JDK 版本配置。

4.让修改生效:
source /etc/profile
5. 测试
java -version

显示 java 版本信息,则说明 JDK 安装成功:

三、搭建Hadoop环境 1.我们先切换到cd /usr/local/hadoop
cd /usr/local/hadoop
2.解压hadoop安装包
tar -zxvf hadoop-2.6.0.tar.gz
3.新建几个目录

在/root目录下新建几个目录,复制粘贴执行下面的命令:

mkdir  /root/hadoop
mkdir  /root/hadoop/tmp
mkdir  /root/hadoop/var
mkdir  /root/hadoop/dfs
mkdir  /root/hadoop/dfs/name
mkdir  /root/hadoop/dfs/data

4. 修改etc/hadoop中的一系列配置文件

/usr/local/hadoop/hadoop/hadoop-2.6.0/etc/hadoop/

4.1我们先切换到该目录下,查看该目录下的文件
cd /usr/local/hadoop/hadoop-2.6.0/etc/hadoop/

4.2修改core-site.xml
vi core-site.xml

在节点内加入配置:


        hadoop.tmp.dir
        /root/hadoop/tmp
   

   
        fs.defaultFS
        hdfs://server1:9000

**注意: hdfs://server1:9000 此处应与hostname保持一致 **

4.3修改hadoop-env.sh
vi hadoop-env.sh

将export JAVA_HOME=${JAVA_HOME}

修改为:

export JAVA_HOME=/usr/local/java/jdk1.8.0_144

说明:修改为自己的JDK路径。此处可以与系统JAVA环境一致,也可以单独配置。

4.4修改hdfs-site.xml
vi hdfs-site.xml

在 节点内加入配置:


   dfs.name.dir
   /root/hadoop/dfs/name



   dfs.data.dir
   /root/hadoop/dfs/data



   dfs.replication
   1

4.5 修改mapred-site.xml.template
vi mapred-site.xml.template 

在 节点内加入配置:


   mapred.job.tracker
   server1:49001



      mapred.local.dir
       /root/hadoop/var



       mapreduce.framework.name
       yarn

4.5 修改yarn-site.xml文件
vi yarn-site.xml

在 节点内加入配置:


        yarn.resourcemanager.hostname
        server1
   

   
        yarn.resourcemanager.address

        ${yarn.resourcemanager.hostname}:8032

   

   
        yarn.resourcemanager.scheduler.address
        ${yarn.resourcemanager.hostname}:8030
   

   
        yarn.resourcemanager.webapp.address
        ${yarn.resourcemanager.hostname}:8088
   

   
        yarn.resourcemanager.webapp.https.address
        ${yarn.resourcemanager.hostname}:8090
   

   
        yarn.resourcemanager.resource-tracker.address
        ${yarn.resourcemanager.hostname}:8031
   

   
        yarn.resourcemanager.admin.address
        ${yarn.resourcemanager.hostname}:8033
   

   
        yarn.nodemanager.aux-services
        mapreduce_shuffle

   

   
        yarn.scheduler.maximum-allocation-mb
        2048
   

   
        yarn.nodemanager.vmem-pmem-ratio
        2.1
   

   
        yarn.nodemanager.resource.memory-mb
        2048
	

   
        yarn.nodemanager.vmem-check-enabled
        false

四、启动Hadoop 1.切换到cd /usr/local/hadoopetc/hadoop/hadoop-2.6.0/bin
cd /usr/local/hadoopetc/hadoop/hadoop-2.6.0/bin

2. 初始化
./hadoop  namenode  -format

3.启动
cd /usr/local/hadoopetc/hadoop/hadoop-2.6.0/sbin

执行初始化脚本,也就是执行命令:

 ./start-all.sh

第一次执行上面的启动命令,会需要我们进行交互操作,在问答界面上输入yes回车。

4.验证访问

访问:http://192.168.171.129:50070【IP:50070】

访问:http://192.168.171.129:8088【IP+8088】

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/782469.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号