HDFS的读写流程面试的重点

Posted 和君莫笑玩大数据

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了HDFS的读写流程面试的重点相关的知识,希望对你有一定的参考价值。

1.HDFS读数据流程
HDFS的读数据流程,如下图:


 
上图来源于网https://www.cnblogs.com/jnba/p/10550394.html
  • 挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。

  • DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。

  • 客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。

2.HDFS写数据流程


HDFS的读写流程面试的重点
  • 客户端通过DistributedFileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。

  • NameNode返回是否可以上传。

  • 客户端请求第一个 Block上传到哪几个DataNode服务器上,NameNode返回3DataNode节点。

  • 客户端通过FSDataOutputStream模块请求NameNode返回的三个DataNode中的就近的一个节点(dn1)上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。dn1dn2dn3逐级应答客户端。

  • 客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答

  • 当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。重复执行上述步骤,知道文件上传完毕。

3.简单了解一下FsimageEdits
   在hdfs中当NameNode被格式化之后,会在你安装的hadoop的目录中,比如说我安装的是CDH版本的集群(注意:这里必须是NameNode的节点上看),并且我的data的路径是:/ssddisk1/dfs/nn/current
HDFS的读写流程面试的重点
  1. Fsimage文件:是HDFS文件系统元数据的一个永久的检查点,它里面的内容主要包括HDFS文件系统的所有目录和文件inode的序列化信息。

  2. Edits文件:这个文件主要存放的是HDFS文件系统的所有更新操作的路径,文件系统客户端执行的所有写操作第一步会记录到Edits文件中。

  3. seen_txid文件是用来保存最后一个edits_数字的文件。

  4. 当NameNode启动的时候会将Fsimage文件加载到内存中,同时也会加载Edits文件里面的更新操作,保证内存中的元数据信息是最新的,同步的,我们可以把这一步理解成NameNode启动的时候会把Fsimage和Edits文件合并。

  5. 查看Fsimage文件,执行命令:hdfs oiv -p XML -i fsimage_0000000000134673403,下图是Fsimage文件的部分内容,也可以使用命令:hdfs oiv -p 文件类型 -i镜像文件 -o 转换后文件输出路径

HDFS的读写流程面试的重点
   F.oev查看Edits文件,命令:hdfs oev -p 文件类型 -i编辑日志 -o 转换后文件输出路径
hdfs oev -p XML -i edits_inprogress_0000000000134676836 -o /ssddisk1/dfs/edits.xml
cat  /ssddisk1/dfs/edits.xml

写作不易,如果可以的话,可以点一下在看,当然如果顺便再转发一下就更好了。

以上是关于HDFS的读写流程面试的重点的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop之HDFS(HDFS的数据流读写数据) (面试开发重点)

Hadoop---07HDFS 读 / 写 数据流程(面试重点)

大数据技术之Hadoop(HDFS)概述Shell操作API操作读写流程工作机制

大数据技术之Hadoop(HDFS)概述Shell操作API操作读写流程工作机制

4.hadoop系列之HDFS读写数据流程

大数据高频面试题:HDFS核心高频面试题