栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

HDFS写数据流程

HDFS写数据流程

#对文件操作采用(一次写多次读取模式)

1.客户端通过调用分布式文件系统行对象的create()创建一个文件然后分布式文件系统会通过RPC调用的名称节点中的文件系统命名空间接着创建一个新文件。

2.名称节点通过多种验证,确认客户端权限和没有相同的文件后,名称节点创建一个新的文件记录。失败的话会显示IOException异常。如果成功的话返回文件系统数据输出流给客户端用来写数据。

3.客户端调用文件系统数据输出流的write()函数,向对应的文件写入数据。

4.当客户端写入数据时分布式文件系统会将文件分割成一个一个的数据块(默认大小是64mb),然后放入一个内容数据队列中,然后数据流系统会将这些小的文件放入数据流中,注意的是写数据时会写冗余数据,冗余数据块的个数默认三个。

5.当客户端成功完成数据写入的操作后(冗余数据块全部写完)并等待确认返回成功,最后通过名称节点完成写入。

 

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/439268.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号