HDFS数据流——写数据流程

Posted mwcloud

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了HDFS数据流——写数据流程相关的知识,希望对你有一定的参考价值。

剖析HDFS文件写入

假设文件ss.avi共200m,其写入HDFS指定路径/user/atguigu/ss.avi流程如下:

 技术图片

1)客户端向namenode请求上传文件到指定路径,namenode通过元数据检查目标文件是否已存在,父目录是否存在。

2)namenode返回是否可以上传。

3)客户端请求第一个 block上传到哪几个datanode服务器上。

4)namenode返回3个datanode节点(根据副本数),分别为dn1、dn2、dn3。

5)客户端请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成

6)dn1、dn2、dn3逐级应答客户端

7)客户端开始往dn1上传第一个block(先从磁盘读取数据放到一个本地内存缓存Bytebuffer),以packet为单位,dn1收到一个packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答

8)当一个block传输完成之后,客户端再次请求namenode上传第二个block的服务器。(重复执行3-7步)

以上是关于HDFS数据流——写数据流程的主要内容,如果未能解决你的问题,请参考以下文章

HDFS的写数据流程以及异常写数据流程

HDFS数据流——写数据流程

浅谈HDFS写数据流程的核心架构设计(上)

Hadoop--04---HDFS_02----读写流程

HDFS 的写数据流程

大数据 | HDFS写读数据流程