栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Hadoop伪分布式的搭建:

Hadoop伪分布式的搭建:

1、配置主机的IP地址(修改的文件是:/etc/sysconfig/network-scripts/ifcfg-eno16777736)

#在末尾加上
IPADDR=192.168.20.20 #IP地址
NETMASK=255.255.255.0 #网关
GATEWAY=192.168.20.2 #网卡
DNS1=192.168.20.2 #DNS服务器

2、配置文件后重启网络服务后生效,并查询IP地址:

systemctl restart network # 重启服务
ip add #查看IP地址

3、修改主机名:

hostnamectl set-hostname master #master为主机名
bash  #刷新

4、配置主机的映射:(文件在:/etc/hosts)

192.168.20.20    master #ip地址   主机名

5、关闭防火墙:

#关闭防火墙
systemctl stop firewalld
systemctl disable firewalld

#查看防火墙状态
systemctl status firewalld

6、将Hadoop与jdk文件解压到指定文件夹:

        hadoop与jdk文件放在/root/目录下,解压到/opt文件夹下

#解压到指定目录
tar -zxvf /root/hadoop-2.7.3.tar.gz -C /opt 
tar -zxvf /root/jdk1.8.0_144.tar.gz -C /opt

#查看
ll /opt

7、SSH无密码连接本机:

# 1、生成密钥对
ssh-keygen -t rsa

# 2、将公钥文件导出传递给本机,注意公钥文件的路径,操作是需要输入root用户的密码
ssh-copy-id -i /root/.ssh/id_rsa.pub master

# 3、检验,用ssh命令连接本机(无需密码)
ssh master

8、修改环境变量文件并验证是否配置成功(文件在/etc/profile):

# 在文件末尾处添加
export JAVA_HOME=/opt/jdk1.8.0_144 #配置jdk环境
export HADOOP_HOME=/opt/hadoop-2.6.0 #配置hadoop环境 PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
# 保存退出


#刷新文件
source /etc/profile

# 查看hadoop与java是否生效,出现版本号,说明配置成功(若未查到命令,需要再次检查/etc/profile文件哦!!!)

hadoop version 
java -version


9、配置hadoop相关文件(文件目录:/opt/hadoop-2.7.3/etc/hadoop里):

(1)、core-site.xml文件:(在标签中插入)


        fs.defaultFS
        hdfs://master:9000  #master:主机名


        hadoop.tmp.dir
        /opt/hadoop-2.6.0/tmp #/opt/hadoop-2.6.0:hadoop解压缩路径

(2)、hadoop-env.sh 文件:

export JAVA_HOME=/opt/jdk1.8.0_144  #jdk解压缩路径

(3)、hdfs-site.xml文件:

	
		dfs.namenode.name.dir
		/opt/hadoop-2.6.0/dfs/name  #/opt/hadoop-2.6.0:hadoop解压路径
	
	
		dfs.datanode.data.dir
		/opt/hadoop-2.6.0/dfs/data  #/opt/hadoop-2.6.0:hadoop解压路径
	
	
		dfs.namenode.checkpoint.dir
		/opt/hadoop-2.6.0/dfs/namesecondary  #/opt/hadoop-2.6.0:hadoop解压路径
	
	
	
		dfs.namenode.secondary.http-address
		master:50090 #master:主机名
	
	 
                dfs.replication
                3
     

(4)、mapred-site.xml 文件(mapred-site.xml 文件默认不不存在,先从模板复制出来):

# 复制并改名
cp mapred-site.xml.template mapred-site.xml

#配置信息

    mapreduce.framework.name
    yarn



    mapreduce.jobhistory.address
    master:10020 #master:主机名




    mapreduce.jobhistory.webapp.address
    master:19888 #master:主机名

 

(5)、yarn-site.xml 文件:设置 yarn 资源管理器的主机名,设置 yarn 节点管理器辅助功能


     yarn.resourcemanager.hostname
     master #master:主机名


     yarn.nodemanager.aux-services
     mapreduce_shuffle

10、格式化:(注:格式化操作不能重复执行,如需重复执行,须将/opt/hadoop/dfs 目录下 的内容清空再执行格式化)

hadoop namenode -format

11、启动hadoop,查看进程:

# 启动hadoop
start-all.sh

#jps查看进程:
jps

#有以下进程说明搭建hadoop成功
2289 NodeManager
1875 SecondaryNameNode
2724 Jps
1669 DataNode
2167 ResourceManager
1544 NameNode
#(进程号可以不同,但进程不能说少)

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/389382.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号