Hadoop(11)——HDFS如何保证数据安全

Posted Java学习基地Java毕设定制

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop(11)——HDFS如何保证数据安全相关的知识,希望对你有一定的参考价值。


  1. 存储在HDFS系统上的文件,会分割成128M大小的block存储在不同的节点上,block的副本数默认3份,也可配置成更多份。

  2. 第一个副本一般放置在与client(客户端)所在的同一节点上(若客户端无datanode,则随机放),第二个副本放置到与第一个副本同一机架的不同节点,第三个副本放到不同机架的datanode节点,当取用时遵循就近原则;

  3. datanode已block为单位,每3s报告心跳状态,做10min内不报告心跳状态则namenode认为block已死掉,namonode会把其上面的数据备份到其他一个datanode节点上,保证数据的副本数量;

  4. datanode会默认每小时把自己节点上的所有块状态信息报告给namenode;

  5. 采用safemode模式:datanode会周期性的报告block信息。Namenode会计算block的损坏率,当阀值<0.999f时系统会进入安全模式,HDFS只读不写。HDFS元数据采用secondaryname备份或者HA备份

以上是关于Hadoop(11)——HDFS如何保证数据安全的主要内容,如果未能解决你的问题,请参考以下文章

Hadoop之HDFS如何保证高可用

hdfs在hadoop里如何建立索引呢?

Hadoop系列

hadoop namenode datanode hdfs工作机制

Hadoop集群管理--保证集群平稳地执行

Hadoop (HDFS) HA架构通信机制