栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

HDFS数据流程

HDFS数据流程

1.在分布式文件系统中创建一个新的文件,同时确认客户端权限和是否存在相同文件(可以理解为在目录中的标题,分布式为目录,新文件为标题)
2.文件创建成功后分布式文件系统返还客户端文件数据系统输出流来写入数据,数据与文件通过数据流对象DFSDataOutputStream连接(数据节点和名称节点的通信,类似与页数的作用,保持标题与内容之间的对应关系)
3记录文件,将文件以文件块的方式通过文件流的方式往数据节点输入数据(写下主要内容)
4数据块全部写完后,数据节点向客户端确认发出确认并由客户端向名称节点发出结束指令,文件的信息存储名称节点中。(内容保存完毕)
HDFS防止出错和出错解决方式 
  1DFSDataOutputSTReam会保存一个包的内部队列用来确认返还信息,当所有通道的数据都无误后,才会从确认队列中删除。
  2当文件创建失败,直接显示IOException异样来停止这个文件的编辑。
  3当数据写入失败的节点失败时,HDFS先关闭这个通道,通知队列里的文件包都会被添加到数据队列前端来确保数据不会丢失
  存放在正常工作数据节点与名称节点关联,待失败数据节点恢复,其中部分数据块会被删除,文件会继续写入另外两个数据节点中。最后由于文件副本数量不够会在创建一个副本,文件正常写入。
HDSF创建副本的意义:

1防止因为一个意外导致正文件丢失
2读取时副本可作为对照防止读取时出错9所以一般由三个副本组成)

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/350359.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号