微服务注册协调组件之zookeeper

Posted 原创工厂

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了微服务注册协调组件之zookeeper相关的知识,希望对你有一定的参考价值。

zookeeper是什么

zookeeper是一个中心化的服务用来维护配置信息、命名,提供分布式的同步机制,并提供一组服务。所有这些服务被分布式系统以某种形式使用。每次实现它们时,都要进行大量的工作来修复不可避免的bug和竞争条件。由于实现这类服务的困难,应用程序最初通常会忽略它们,这使得它们在发生变化时变得脆弱,并且难以管理。即使操作正确,在部署应用程序时,这些服务的不同实现也会导致管理复杂性。

ZooKeeper的目标是将这些不同服务的精髓提炼成一个非常简单的接口,以集中协调服务。服务本身是分布式的,而且非常可靠。一致性、组管理和存在协议将由服务实现,因此应用程序不需要单独实现它们。这些应用程序的特定用途将包括zookeeper的特定组件和应用程序特定的约定的混合。ZooKeeper Recipes展示了如何使用这个简单的服务来构建更强大的抽象。

CAP原理

CAP原则又称CAP定理,指的是在一个分布式系统中,一致性(Consistency)、可用性(Availability)、分区容错性(Partition tolerance)。CAP 原则指的是,这三个要素最多只能同时实现两点,不可能三者兼顾。

一致性(C):在分布式系统中的所有数据备份,在同一时刻是否同样的值。(等同于所有节点访问同一份最新的数据副本)

可用性(A):在集群中一部分节点故障后,集群整体是否还能响应客户端的读写请求。(对数据更新具备高可用性)

分区容忍性(P):以实际效果而言,分区相当于对通信的时限要求。系统如果不能在时限内达成数据一致性,就意味着发生了分区的情况,必须就当前操作在C和A之间做出选择。分区容错的意思是,区间通信可能失败。比如,一台服务器放在中国,另一台服务器放在美国,这就是两个区,它们之间可能无法通信。

一致性算法

弱一致性(最终一致性)

  • DNS

  • Gossip(Cassandra的通信协议)

强一致性:

  • 同步

  • Paxos

  • Raft(Multi-Paxos)

  • ZAB(multi-paxos)

分布式系统对fault tolorance的一般解决方案是:state machine replication(状态机)

paxos其实是一个共识算法,系统的最终一致性,不仅需要达成共识,还会取决于client的行为。

分类:

  • 主从同步:一个节点挂,全挂。

  • 多数派:每次写都保证大于N/2个节点,每次读保证大于N/2个读。并发顺序会影响结果

Paxos

Basic Paxos:

4个阶段,Prepare -> Promise -> Accept -> Accepted

潜在问题:存在活锁问题,提案之间不停地竞争。难实现,效率低(2轮RPC)

Multi Paxos

唯一的propser,所有请求都需要经过此leader

减少角色

Raft

分为3个子问题:

  • leader election:多数派,心跳包,timeout

  • log replication:写日志、提交

  • safety:失败、分区的处理方法

重新定义角色

  • leader

  • follower

  • candidate

原理动画解释:

http://thesecretlivesofdata.com/raft/

https://raft.github.io

解决平票的问题:随机等待一个时间后重新发起

心跳方向:leader -> follower

ZAB

原子广播协议(Zookeeper Atomic Broadcast)。基于PAXOS的改进。

角色分为:leader/follower/observer

算法基本上与Raft相同。

区别:

zab将一个leader的周期成为epoch,而raft则称之为term.

心跳方向:follower-> leader

zookeeper脑裂吗

脑裂是指在跨网络分区时,请求打到不同分区,每个分区都选出一个leader,等网络恢复时,zk不知道选哪个座位leader.

这种主要靠选举机制来保证,每次有>1/2的节点投票选择时,才能把该节点设置为leader。所以即使在跨分区的情况下,也能够保证只有一个leader。

分布式协调组件比较

组件 模式 公司 算法
Zookeeper CP Apache zab,基于Paxos算法
Eureka AP Netflix /(开源项目已经停止维护)
Nacos CP + AP 阿里巴巴 Raft
Consul CP HashiCorp Raft

zookeeper

基于CP。

zookeeper也可以作为注册中心,用于服务治理(zookeeper还有其他用途,例如:分布式事务锁等)

每启动一个微服务,就会去zk中注册一个临时子节点

每当有一个服务down机,由于是临时结点,此节点会立即被删除,并通知订阅该服务的微服务更新服务列表(zk上有watch,每当有节点更新,都会通知订阅该服务的微服务更新服务列表)

每当有一个新的微服务注册进来,就会在对应的目录下创建临时子节点,并通知订阅该服务的微服务更新服务列表(zk上有watch,每当有节点更新,都会通知订阅该服务的微服务更新服务列表)

每个微服务30s向zk获取新的服务列表

Eureka

基于AP。

每一个微服务中都有eureka client,用于服务的注册与发现。

当A服务需要调用B服务时,需要从eureka服务端获取B服务的服务列表,然后把列表缓存到本地,然后根据ribbon的客户端负载均衡规则,从服务列表中取到一个B服务,然后去调用此B服务当A服务下次再此调用B服务时,如果发现本地已经存储了B的服务列表,就不需要再从eureka服务端获取B服务列表,直接根据ribbon的客户端负载均衡规则,从服务列表中取到一个B服务,然后去调用B服务。

微服务,默认每30秒,就会从eureka服务端获取一次最新的服务列表

如果某台微服务down机,或者添加了几台机器,此时eureka server会通知订阅他的客户端,并让客户端更新服务列表,而且还会通知其他eureka server更新此信息

心跳检测:微服务每30秒向eureka server发送心跳。

eureka server若90s之内都没有收到某个客户端的心跳,则认为此服务出了问题,会从注册的服务列表中将其删除,并通知订阅它的客户端更新服务列表,而且还会通知其他eureka server更新此信息。

注意:Eureka的开源项目已经放弃维护,继续使用,后果自负。

Nacos

同时支持AP和CP。

阿里巴巴团队开发的服务注册于发现产品,其定义为:一个更易于构建云原生应用的动态服务发现、配置管理和服务管理平台。nacos同时支持AP和CP模式,根据服务注册临时和永久来决定AP模式还是CP模式。

微服务注册协调组件之zookeeper

对比项 Nacos Eureka
CAP模型 AP和CP AP
客户端更新服务器信息 使用注册+DNS-f+健康检查模式。DNS-F客户端使用监听模式push/pull拉取更新信息 客户端定时轮询服务端获取其他服务ip信息并对比,相比之下服务端压力较大、延迟较大
伸缩性 使用Raft选举算法性能、可用性、容错性比较好,新加入节点无需与所有节点广播同步信息 由于使用广播同步信息,集群超过1000台机器后对eureka集群压力很大
健康检查模式 支持服务端/客户端/关闭检查模式,检查方式有tcp、http、sql。支持自己构建健康检查器 客户端向服务端发送http心跳
跨中心同步 支持 不支持
k8s集成 支持 不支持
分组 Nacos可用根据业务和环境进行分组管理 不支持
权重 Nacos默认提供权重设置功能,调整承载流量压力 不支持

总结起来,nocos相比于Eureka,具有以下特性:

  1. Nacos具备服务优雅上下线和流量管理(API+后台管理页面),而Eureka的后台页面仅供展示,需要使用api操作上下线且不具备流量管理功能。

  2. 从部署来看,Nacos整合了注册中心、配置中心功能,把原来两套集群整合成一套,简化了部署维护

  3. 从长远来看,Eureka开源工作已停止,后续不再有更新和维护,而Nacos在以后的版本会支持

  4. SpringCLoud+Kubernetes的组合,填补 2 者的鸿沟,在两套体系下可以采用同一套服务发现和配置管理的解决方案,这将大大的简化使用和维护的成本。同时来说,Nacos 计划实现 Service Mesh,是未来微服务的趋势

  5. 从伸缩性和扩展性来看Nacos支持跨注册中心同步,而Eureka不支持,且在伸缩扩容方面,Nacos比Eureka更优(nacos支持大数量级的集群)。

  6. Nacos具有分组隔离功能,一套Nacos集群可以支撑多项目、多环境

Consul

基于CP.

Consul 是 HashiCorp 公司推出的开源产品,用于实现分布式系统的服务发现、服务隔离、服务配置,这些功能中的每一个都可以根据需要单独使用,也可以同时使用所有功能。Consul 官网目前主要推 Consul 在服务网格中的使用。Consul 本身使用 go 语言开发,具有跨平台、运行高效等特点,也非常方便和 Docker 配合使用。

支持 http 和 dns 协议接口。zookeeper 的集成较为复杂, etcd 只支持 http 协议。

官方提供 Web 管理界面。

1、当 Producer 启动的时候,会向 Consul 发送一个 post 请求,告诉 Consul 自己的 IP 和 Port;

2、Consul 接收到 Producer 的注册后,每隔 10s(默认)会向 Producer 发送一个健康检查的请求,检验 Producer 是否健康;

3、当 Consumer 发送 GET 方式请求 /api/address 到 Producer 时,会先从 Consul 中拿到一个存储服务 IP 和 Port 的临时表,从表中拿到 Producer 的 IP 和 Port 后再发送 GET 方式请求 /api/address;

4、该临时表每隔 10s 会更新,只包含有通过了健康检查的 Producer。

与zookeeper的区别:

Consul和 ZooKeeper、Doozerd、Etcd在架构上都非常相似,它们都有服务节点(server node),而这些服务节点的操作都要求达到节点的仲裁数(通常,节点的仲裁数遵循的是简单多数原则)。此外,它们都是强一致性的,并且提供各种语言。通过应用程序内部的客户端lib库,这些原语可以用来构建复杂的分布式系统。

Consul在一个单一的数据中心内部使用服务节点。在每个数据中心中,为了Consule能够运行,并且保持强一致性,Consul服务端需要仲裁。然而,Consul原生支持多数据中心,就像一个丰富gossip系统连接服务器节点和客户端一样。

当提供K/V存储的时候,这些系统具有大致相同的语义,读取是强一致性的,并且在面对网络分区的时候,为了保持一致性,读取的可用性是可以牺牲的。然而,当系统应用于复杂情况时,这种差异会变得更加明显。

这些系统提供的语义对开发人员构建服务发现系统很有吸引力,但更重要的是,强调开发人员要构建这些特性。ZooKeeper只提供一个原始的K/V值存储,并要求开发人员构建他们自己的系统来提供服务发现功能。相反的是,Consul提供了一个坚固的框架,这不仅仅是为了提供服务发现功能,也是为了减少推测工作和开发工作量。客户端只需简单地完成服务注册工作,然后使用一个DNS接口或者HTTP接口就可以执行工作了,而其他系统则需要你定制自己的解决方案。

一个令人信服的服务发现框架必须包含健康检测功能,并且考虑失败的可能性。要是节点失败或者服务故障了,即使开发人员知道节点A提供Foo服务也是没用的。Navie系统利用的是心跳、周期性更新和TTLs,这些系统不仅需要工作量与节点数量成线性关系,并且对服务器的固定数量提出了要求。此外,故障检测窗口的存活时间至少要和TTL一样长。

ZooKeeper提供了临时节点,这些临时节点就是K/V条目,当客户端断开连接时,这些条目会被删除。虽然这些临时节点比一个心跳系统更高级,但仍存在固有的扩展性问题,并且会增加客户端的复杂性。与ZooKeeper服务器端连接时,客户端必须保持活跃,并且去做持续性连接。此外,ZooKeeper还需要胖客户端,而胖客户端是很难编写,并且胖客户端会经常导致调试质询。

Consul使用一个完全不同的架构进行健康检测。Consul客户端可以运行在集群中的每一个节点上,而不是拥有服务器节点,这些Consul客户端属于一个gossip pool,gossip pool提供了一些功能,包括分布式健康检测。gossip协议提供了一个高效的故障检测工具,这个故障检测工具可以应用到任意规模的集群,而不仅仅是作用于特定的服务器组。同时,这个故障检测工具也支持在本地进行多种健康检测。与此相反,ZooKeeper的临时节点只是一个非常原始的活跃度检测。因为有了Consul,客户端可以检测web服务器是否正在返回200状态码,内存利用率是否达到临界点,是否有足够的数据存储盘等。此外,ZooKeeper会暴露系统的复杂性给客户端,为了避免ZooKeeper出现的这种情况,Consul只提供一个简单HTTP接口。

Consul为服务发现、健康检测、K/V存储和多数据中心提供了一流的支持。为了支持任意存储,而不仅仅是简单的K/V存储,其他系统都要求工具和lib库要率先建立。然而,通过使用客户端节点,Consul提供了一个简单的API,这个API的开发只需要瘦客户端就可以了, 而且,通过使用配置文件和DNS接口,开发人员可以建立完整的服务发现解决方案,最终,达到避免开发API的目的。 

原文https://www.consul.io/intro/vs/zookeeper.html

参考文档

官网:https://zookeeper.apache.org/

一致性算法:https://www.bilibili.com/video/av21667358

Nacos官网:https://nacos.io/zh-cn/

Consul官网:https://www.consul.io/

nacos简介以及作为注册/配置中心与Eureka、apollo的选型比较:https://www.jianshu.com/p/afd7776a64c6

Consul vs Zookeeper vs Etcd vs Eureka:https://www.consul.io/intro/vs/zookeeper.htmlhttps://blog.csdn.net/Zzhou1990/article/details/72667659?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase


以上是关于微服务注册协调组件之zookeeper的主要内容,如果未能解决你的问题,请参考以下文章

微服务系列:服务注册与发现的实现原理及实现优劣势比较

微服务系列之ZooKeeper注册中心和Nacos注册中心

微服务架构 | 3.3 Apache Zookeeper 注册中心 #yyds干货盘点#

SpringBoot2 整合 Zookeeper组件,管理架构中服务协调

微服务之服务中心—zookeeper

微服务注册与发现