栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

大数据-Hadoop是什么,如何部署

大数据-Hadoop是什么,如何部署

大数据-Hadoop是什么,如何部署

1.是什么?2.架构

2.1 HDFS(分布式文件系统)

2.1.1NameNode(简称nn)2.1.2DataNode(dn)2.1.3Secondary NameNode(2NN) 2.2 YARN(资源管理器/协调者)

2.2.1 Resource Manager2.2.2 NodeManager2.2.3 AppllicationMaster 2.3 MapReduce(计算) 3.Hadoop目录结构

3.1bin3.2etc(配置文件)3.3sbin(启动关闭命令)3.4share(说明文档、运行例子) 4.如何运行部署?

4.1软件准备、配置文件4.2模式

本地模式分布式

集群配置规划配置文件

core-site.xmlhdfs-site.xmlmapred-site.xmlyarn-site.xmlworkers 启动集群

初始运行需要初始化启动hdfs(在namenode节点上)启动yarn(在resourcemanager节点上)启动历史服务器

1.是什么?
大数据计算平台-批量计算
各个版本发展变化:主要是区分yarn是资源管理的部分,HDFS是数据存储的部分

2.架构 2.1 HDFS(分布式文件系统)
解决问题:首先对于海量数据需要先进行存储。
如何存储?(海量数据一台机器存储不够,分布式存到多台机器)
namenode:管理数据存储在什么位置的组件,例如某一部分数据存储在那一台机器。
2NN:万一namenode挂了,数据存在什么位置就不知道了,所以为了防止这种情况进行设置2NN组件,辅助namenode工作的
datanode:具体进行存储数据的组件
2.1.1NameNode(简称nn)
存储文件的元数据(文件名,目录,属性(包括生成时间、副本数以及文件权限),每个存储在Datanode中文件的块列表)
2.1.2DataNode(dn)
具体存储数据的组件,存储文件块数据、以及块数据的校验和
2.1.3Secondary NameNode(2NN)
为了防止Namenode挂了,每隔一段时间对Namenode进行元数据备份
2.2 YARN(资源管理器/协调者)
yarn主要管理的就是cpu、内存。
组件:Resource Manager、NodeManager

2.2.1 Resource Manager
整个集群的资源管理者,管理所有节点总共的cpu以及内存等资源
2.2.2 NodeManager
自己管理自己节点机器上的资源
2.2.3 AppllicationMaster

当用户提交一个作业后,Resource Manager管理资源分配将作业分配到某一个NodeManager中,会启动一个容器(相当于资源隔离,里面封装了运行任务所需要的资源)来执行该任务。
AppllicationMaster管理单个运行的任务,向Resource Manager申请资源,如果还有后续的任务需要执行,就再申请资源。
容器默认是1-8g内存,1个cpu

2.3 MapReduce(计算)
将计算过程分为两个部分:
map阶段:并行处理输入数据
reduce阶段:对map结果进行汇总

3.Hadoop目录结构

3.1bin

重点关于存储、计算、资源管理命令各一个:hdfs、mapred、yarn

3.2etc(配置文件)

 
3.3sbin(启动关闭命令) 
3.4share(说明文档、运行例子) 
4.如何运行部署? 
运行模式分为:本地模式(测试)(本地(linux)存储数据)、伪分布式(hdfs存储数据,但是只在一个机器上)、分布式(在集群的hdfs中存储数据)
4.1软件准备、配置文件
jdkhttps://mirrors.tuna.tsinghua.edu.cn/AdoptOpenJDK/8/jdk/x64/linux/
hadoophttps://archive.apache.org/dist/hadoop/common/

source /etc/profile
4.2模式 本地模式
采用share文件中的官方例子
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-xx.jar wordcount (输入路径)  (输出路径(必须指定的文件夹不存在))

输入路径中创建一个里面是单词的文件txt
执行后生成文件,生成的

分布式
注:记录两个知识点:
scp命令
rsync远程同步(可以只拷贝差异性内容)
scp安全拷贝,用于拷贝文件或者文件夹

scp  -r(递归) 要拷贝的文件或者文件夹   目的文件夹
rsync -av(a归档拷贝 v显示过程) 要拷贝的文件或者文件夹   目的文件夹
集群配置规划

配置文件
hadoop/etc/hadoop



参考链接:

https://zhuanlan.zhihu.com/p/25472769
core-site.xml

    

    fs.defaultFS
    hdfs://locahost:9000

    

        hadoop.tmp.dir
        /cloud/hadoop/tmp


hdfs-site.xml

//设置nn的web端访问路径,就是需要让用户访问到,所以设置web界面

dfs.namenode.http-address
cloud01:9870

//设置2NN的地址

dfs.namenode.secondary.http-address
cloud01:9860



dfs.namenode.name.dir
file:/home/hduser/dfs/name


dfs.datanode.data.dir
file:/home/hduser/dfs/data

//

dfs.replication
2


mapred-site.xml


//指定mapreduce运行在yarn上
mapreduce.framework.name
yarn


yarn-site.xml


yarn.nodemanager.aux-services
mapreduce_shuffle



yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler

//指定resourcemanager地址

yarn.resourcemanager.hostname
cloud01


workers
//配置运行的一些集群ip或者别名(不能有空格或者空行)
启动集群 初始运行需要初始化

只在namenode节点上进行初始化
hdfs namenode -format


初始化后会生成一个data和log
启动hdfs(在namenode节点上)
sbin/start-dfs.sh


访问web界面配置namenode的ip:9870
(配置hdfs-site.xml文件中设置的客户端访问的端口)
启动yarn(在resourcemanager节点上)
sbin/start-yarn.sh


访问web界面yarn的resourcemanager;
ip:8088
启动历史服务器

对于完成的任务已经结束运行了,在想查看历史信息需要历史服务器

配置文件mapred-site.yaml

在配置文件中指定的地址的那个节点上运行该命令
mapred --deomon start historyserver
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/761031.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号