Zookeeperzookeeper简单介绍和适用场景

Posted kbian

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Zookeeperzookeeper简单介绍和适用场景相关的知识,希望对你有一定的参考价值。

 

什么是zookeeper

ZooKeeper是用于维护配置信息,命名,提供分布式同步以及提供组服务的集中式服务。

 

zookeeper数据结构

zookeeper数据结构简单的可以看成树状结构。每个节点最大只能存储1M的数据。

技术图片

 

zookeeper特点

  1. 主从:集群中一个领导者,多个跟随者
  2. 半数机制:集群中半数以上存活,才能正常工作
  3. 数据一致性:集群中无弄领导者还是跟随者数据都是一样的。
  4. 顺序性:来自同一个client的更新请求按照其发送顺序依次执行。
  5. 数据更新原子性更新成功或失败。没有部分结果。
  6. 实时性:zookeeper低延迟。

 

 

应用场景

统一配置管理(数据量很小,但是数据更新可能会比较快的场景

应用中用到的一些配置信息放到ZK上进行集中管理。这类场景通常是这样:

  • 应用在启动的时候会主动来获取一次配置,同时,在节点上注册一个Watcher。
  • 以后每次配置有更新的时候,都会实时通知到订阅的客户端,从来达到获取最新配置信息的目的。 

技术图片

 

 

负载均衡(根据节点访问多少/事务id大小轮询

技术图片

 

统一命名服务

分布式环境下,ip众多,不易记住,而域名容易记住。在分布式系统中,通过使用命名服务。

客户端应用能够根据指定名字来获取资源或服务的地址,提供者等信息。被命名的实体通常可以是集群中的机器,提供的服务地址,远程对象等等——这些我们都可以统称他们为名字(Name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用ZK提供的创建节点的API,能够很容易创建一个全局唯一的path,这个path就可以作为一个名称。

例如阿里巴巴的Dubbo框架,服务提供者在启动的时候,向ZK上的指定节点/dubbo/${serviceName}/providers目录下写入自己的URL地址,这个操作就完成了服务的发布。 服务消费者启动的时候,订阅/dubbo/${serviceName}/providers目录下的提供者URL地址, 并向/dubbo/${serviceName} /consumers目录下写入自己的URL地址。 注意,所有向ZK上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。

 技术图片

 

分布式通知/协调

ZooKeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点的),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理。

实现心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过zk上某个节点关联,大大减少系统耦合。 另一种系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作,实际上是修改了ZK上某些节点的状态,而ZK就把这些变化通知给他们注册Watcher的客户端,即推送系统,于是,作出相应的推送任务。
实现工作汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。
总之,使用zookeeper来进行分布式通知和协调能够大大降低系统之间的耦合。

技术图片

 

分布式集群管理

这通常用于那种对集群中机器状态,机器在线率有较高要求的场景,能够快速对集群中机器变化作出响应。这样的场景中,往往有一个监控系统,实时检测集群机器是否存活。过去的做法通常是:监控系统通过某种手段(比如ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报“我还活着”。 这种做法可行,但是存在两个比较明显的问题:

  1. 集群中机器有变动的时候,牵连修改的东西比较多。
  2. 有一定的延时。


利用ZooKeeper有两个特性,就可以实时另一种集群机器存活性监控系统:

  1. 客户端在节点 x 上注册一个Watcher,那么如果 x?的子节点变化了,会通知该客户端。
  2. 创建EPHEMERAL类型的节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失。


例如,监控系统在 /clusterServers 节点上注册一个Watcher,以后每动态加机器,那么就往 /clusterServers 下创建一个 EPHEMERAL类型的节点:/clusterServers/{hostname}. 这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。

 

Master选举

在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑(例如一些耗时的计算,网络I/O处理),往往只需要让整个集群中的某一台机器进行执行,其余机器可以共享这个结果,这样可以大大减少重复劳动,提高性能,于是这个master选举便是这种场景下的碰到的主要问题。选举通常有三种方式:

  • 利用ZooKeeper的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /currentMaster 节点,最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很轻易的在分布式环境中进行集群选取了。
  • 允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在ZK上创建结果的一种可能情况是这样:/currentMaster/{sessionId}-1 ,?/currentMaster/{sessionId}-2 ,?/currentMaster/{sessionId}-3 …..每次选取序列号最小的那个机器作为Master,如果这个机器挂了,由于他创建的节点会马上小时,那么之后最小的那个机器就是Master了。
  • 经典的选举方式,通过zooId和事务id来进行选举。

 

分布式锁

分布式锁,这个主要得益于ZooKeeper为我们保证了数据的强一致性和原子性。锁服务可以分为两类,一个是保持独占,另一个是控制时序。

保持独占:就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把zk上的一个znode看作是一把锁,通过create znode的方式来实现。所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。 

技术图片

 

控制时序:就是所有视图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里 /distribute_lock 已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:CreateMode.EPHEMERAL_SEQUENTIAL来指定)。Zk的父节点(/distribute_lock)维持一份sequence,保证子节点创建的时序性,从而也形成了每个客户端的全局时序。

时序性也可以当做分布式队列来使用。

技术图片

 

分布式队列

常规队列:先进先出。可以通过上面分布式锁的时序性来实现。

增强队列所有队列成员到齐之后在执行。通常可以在 /queue 这个znode下预先建立一个/queue/num 节点,并且赋值为n(或者直接给/queue赋值n),表示队列大小,之后每次有队列成员加入后,就判断下是否已经到达队列大小,决定是否可以开始执行了。这种用法的典型场景是,分布式环境中,一个大任务Task A,需要在很多子任务完成(或条件就绪)情况下才能进行。这个时候,凡是其中一个子任务完成(就绪),那么就去 /taskList 下建立自己的临时时序节点(CreateMode.EPHEMERAL_SEQUENTIAL),当 /taskList 发现自己下面的子节点满足指定个数,就可以进行下一步按序进行处理了。

 

 

参考:

http://zookeeper.apache.org/

http://jm.taobao.org/2011/10/08/1232/

 

以上是关于Zookeeperzookeeper简单介绍和适用场景的主要内容,如果未能解决你的问题,请参考以下文章

zookeeperzookeeper 简单介绍

ZooKeeperZooKeeper安装及简单操作

zookeeper 是什么应用场景有哪些?docker 部署zookeeperzookeeper命令

[高级]Zookeeper介绍——Zookeeper概述

[高级]Zookeeper介绍——Zookeeper概述

ZooKeeperzookeeper源码9-ZooKeeper读写流程源码分析