HDFS 读流程和写流程
Posted 一只阿木木
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了HDFS 读流程和写流程相关的知识,希望对你有一定的参考价值。
问题:
数据块的大小设置为多少合适,为什么
NameNode 有哪些容错的机制,如果它挂掉了怎么办
答:128M。数据块太小,一般的文件也会分割成多个文件,这样查找数据的效率是不高的。同时,数据块分配太小,对NameNode 内存消耗比较严重。数据块过大,对并行的支持不是太好。还会涉及其他问题。比如系统重启时候需要重新加载数据,数据块过大,系统恢复的时间就越长。
答:Hadoop2 可以配置成HA也就是高可用集群,集群中有两个NameNode 节点,一台处于Active 状态为主节点,另一台处于standby 状态,为备用节点。两者的数据时刻保持一致。当主节点出现问题时,备用节点自动切换,用户基本感觉不到,这样就避免了NameNode 单点问题。
HDFS 写流程
客户端向NameNode 发起写数据请求
分块写入DataNode 节点,DataNode 自动完成副本备份
DataNode 向NameNode 汇报存储完成,NameNode 通知客户端
HDFS 读流程
客户端向NameNode 发起读数据请求
NameNode 找出距离最近的DataNode 节点信息
客户端从DataNode 分块下载文件
以上是关于HDFS 读流程和写流程的主要内容,如果未能解决你的问题,请参考以下文章