Hadoop之HDFS如何保证高可用

Posted 浮世间

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop之HDFS如何保证高可用相关的知识,希望对你有一定的参考价值。

HDFS如何保护高可用

将各个角色拆分开来

  1. NameNode
    通过JournalNode和DFSZKFailoverController实现。
  • JournalNode负责主从数据一致;
  • ZKFC负责主从的Failover(通过ssh或shell实现防止脑裂).
  1. JournalNode
    自生也是分布式的,因为有选举机制,所以默认要大于1的奇数个服务器在线。

  2. DFSZKFailoverController(Zookeeper)
    ZKFC是部署在两个NameNode节点上的独立的进程,作用是辅助ZooKeeper做NameNode的健康监控,间接来说就是ZooKeeper的可用性。
  3. 数据本身
    数据在HDFS中默认是存储三份的,而且在不同的DataNode,所以即使只有一台机器存活也能保证数据完整。

以上是关于Hadoop之HDFS如何保证高可用的主要内容,如果未能解决你的问题,请参考以下文章

HDFS 底层交互原理,看这篇就够了!

Hadoop组件之-HDFS(HA实现细节)

Apache hadoop namenode ha和yarn ha ---HDFS高可用性

Hadoop (HDFS) HA架构通信机制

2021年 全网最细大数据学习笔记:Hadoop 之 HDFS 进程详解

HDFS 高可用 使用Quorum Journal Manager (QJM)