2、微服务注册中心

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了2、微服务注册中心相关的知识,希望对你有一定的参考价值。

参考技术A 注册中心可以说是微服务架构中的”通讯录“,它记录了服务和服务地址的映射关系。在分布式架构中,服务会注册到这里,当服务需要调用其它服务时,就到这里找到服务的地址,进行调用。

注册就是将服务的信息注册到注册中心,这里的信息主要是服务的 name、address、weight 信息。name 是服务的名字,address 是服务提供方的地址信息,包含 ip 和 port 信息,weight 是服务节点的权重信息,用来调节流量的,一般配合负载均衡模块一起使用。

反注册说的是服务提供方机器下线、进程退出的的时候,能够提前将注册中心的相关节点信息删除或者通过相关状态标识出来,表明该服务节点已经不提供服务,这样调用方 Invoker 在发现服务的时候就可以排除掉这个节点,不会将请求发过来。

订阅说的是服务调用方,在调用前需要根据订阅服务的 name 从注册中心获取到所有相关服务的注册信息,比如 address、weight。这样在调用前就可以根据 address 信息进行网络连接,然后发起调用,以及根据 weight 来使用负载均衡来调节流量大小。

通知说的是相关服务注册和反注册时,注册中心信息变更,能够主动通知到服务订阅方,这样服务订阅方就可以了解到是新增了服务机器节点,还是下线了服务节点,亦或是服务权重变更,这样方便调用方自动控制服务调用流量的流向以及大小。

定时检测服务提供者的健康情况

高可用、容错性、易用性(提供统一的抽象)、安全性、数据一致性问题、等

微服务注册中心产品ZooKeeperEurekaConsulNacos对比


服务注册中心本质上是为了解耦服务提供者和服务消费者。对于任何一个微服务,原则上都应存在或者支持多个提供者,这是由微服务的分布式属性决定的。更进一步,为了支持弹性扩缩容特性,一个微服务的提供者的数量和分布往往是动态变化的,也是无法预先确定的。因此,原本在单体应用阶段常用的静态LB机制就不再适用了,需要引入额外的组件来管理微服务提供者的注册与发现,而这个组件就是服务注册中心。


CAP理论

微服务注册中心产品ZooKeeper、Eureka、Consul、Nacos对比


CAP理论是分布式架构中重要理论:

  • 一致性(Consistency),所有节点在同一时间具有相同的数据

  • 可用性(Availability),保证每个请求不管成功或者失败都有响应

  • 分隔容忍(Partition tolerance),系统中任意信息的丢失或失败不会影响系统的继续运作


关于P的理解,我觉得是在整个系统中某个部分,挂掉了,或者宕机了,并不影响整个系统的运作或者说使用,而可用性是,某个系统的某个节点挂了,但是并不影响系统的接受或者发出请求,CAP不可能都取,只能取其中2个。

原因是如果C是第一需求的话,那么会影响A的性能,因为要数据同步,不然请求结果会有差异,但是数据同步会消耗时间,期间可用性就会降低。

如果A是第一需求,那么只要有一个服务在,就能正常接受请求,但是对与返回结果变不能保证,原因是,在分布式部署的时候,数据一致的过程不可能想切线路那么快。

再如果,同事满足一致性和可用性,那么分区容错就很难保证了,也就是单点,也是分布式的基本核心,好了,明白这些理论,就可以在相应的场景选取服务注册与发现了。


服务注册中心解决方案

微服务注册中心产品ZooKeeper、Eureka、Consul、Nacos对比


设计或者选型一个服务注册中心,首先要考虑的就是服务注册与发现机制。纵观当下各种主流的服务注册中心解决方案,大致可归为三类:

  • 应用内:直接集成到应用中,依赖于应用自身完成服务的注册与发现,最典型的是Netflix提供的Eureka

  • 应用外:把应用当成黑盒,通过应用外的某种机制将服务注册到注册中心,最小化对应用的侵入性,比如Airbnb的SmartStack,HashiCorp的Consul

  • DNS:将服务注册为DNS的SRV记录,严格来说,是一种特殊的应用外注册方式,SkyDNS是其中的代表


注1:对于第一类注册方式,除了Eureka这种一站式解决方案,还可以基于ZooKeeper或者etcd自行实现一套服务注册机制,这在大公司比较常见,但对于小公司而言显然性价比太低。

注2:由于DNS固有的缓存缺陷,本文不对第三类注册方式作深入探讨。

除了基本的服务注册与发现机制,从开发和运维角度,至少还要考虑如下五个方面:

  • 测活:服务注册之后,如何对服务进行测活以保证服务的可用性?

  • 负载均衡:当存在多个服务提供者时,如何均衡各个提供者的负载?

  • 集成:在服务提供端或者调用端,如何集成注册中心?

  • 运行时依赖:引入注册中心之后,对应用的运行时环境有何影响?

  • 可用性:如何保证注册中心本身的可用性,特别是消除单点故障?


主流注册中心产品

微服务注册中心产品ZooKeeper、Eureka、Consul、Nacos对比


软件产品特性并非一成不变,如果发现功能特性有变更,欢迎评论指正。


Nacos Eureka Consul
CoreDNS ZooKeeper
一致性协议
CP+AP
AP
CP
-
CP
健康检查
TCP/HTTP/MYSQL/Client Beat
Client Beat
TCP/HTTP/gRPC/Cmd
-
Keep Alive
负载均衡策略

权重/metadata/Selector


Ribbon
Fabio
RoundRobin
-
雪崩保护




自动注销实例
支持
支持
支持
不支持
支持
访问协议
HTTP/DNS
HTTP
HTTP/DNS
DNS
TCP
监听支持
支持
支持
支持
不支持
支持
多数据中心
支持
支持
支持
不支持
不支持
跨注册中心同步
支持
不支持
支持
不支持
不支持
Spring Cloud集成
支持
支持
支持
不支持
支持
Dubbo集成
支持
不支持
支持
不支持
支持
Kubernetes集成
支持
不支持
支持
支持
不支持

  • Consul是支持自动注销服务实例,请见文档:https://www.consul.io/api-docs/agent/service,在check的 DeregisterCriticalServiceAfter 这个参数-- 感谢@超帅的菜鸟博主提供最新信息

  • 新版本的Dubbo也扩展了对 Consul 的支持。参考:https://github.com/apache/dubbo/tree/master/dubbo-registry


Apache Zookeeper -> CP

与Eureka有所不同,Apache ZooKeeper在设计时就紧遵CP原则,即任何时候对ZooKeeper的访问请求能得到一致的数据结果,同时系统对网络分割具备容错性,但是ZooKeeper不能保证每次服务请求都是可达的。

从ZooKeeper的实际应用情况来看,在使用ZooKeeper获取服务列表时,如果此时的ZooKeeper集群中的Leader宕机了,该集群就要进行Leader的选举,又或者ZooKeeper集群中半数以上服务器节点不可用(例如有三个节点,如果节点一检测到节点三挂了 ,节点二也检测到节点三挂了,那这个节点才算是真的挂了),那么将无法处理该请求。所以说,ZooKeeper不能保证服务可用性。

当然,在大多数分布式环境中,尤其是涉及到数据存储的场景,数据一致性应该是首先被保证的,这也是ZooKeeper设计紧遵CP原则的另一个原因。

但是对于服务发现来说,情况就不太一样了,针对同一个服务,即使注册中心的不同节点保存的服务提供者信息不尽相同,也并不会造成灾难性的后果。

因为对于服务消费者来说,能消费才是最重要的,消费者虽然拿到可能不正确的服务实例信息后尝试消费一下,也要胜过因为无法获取实例信息而不去消费,导致系统异常要好(淘宝的双十一,京东的618就是紧遵AP的最好参照)。

当Master节点因为网络故障与其他节点失去联系时,剩余节点会重新进行Leader选举。问题在于,选举Leader的时间太长,30~120s,而且选举期间整个ZooKeeper集群都是不可用的,这就导致在选举期间注册服务瘫痪。

在云部署环境下, 因为网络问题使得ZooKeeper集群失去Master节点是大概率事件,虽然服务能最终恢复,但是漫长的选举事件导致注册长期不可用是不能容忍的。

Spring Cloud Eureka -> AP

微服务注册中心产品ZooKeeper、Eureka、Consul、Nacos对比


Spring Cloud Netflix在设计Eureka时就紧遵AP原则(尽管现在2.0发布了,但是由于其闭源的原因 ,但是目前Ereka 1.x任然是比较活跃的)。

Eureka Server也可以运行多个实例来构建集群,解决单点问题,但不同于ZooKeeper的选举Leader的过程,Eureka Server采用的是Peer to Peer对等通信。这是一种去中心化的架构,无Master/Slave之分,每一个Peer都是对等的。在这种架构风格中,节点通过彼此互相注册来提高可用性,每个节点需要添加一个或多个有效的serviceUrl指向其他节点。每个节点都可被视为其他节点的副本。

在集群环境中如果某台Eureka Server宕机,Eureka Client的请求会自动切换到新的Eureka Server节点上,当宕机的服务器重新恢复后,Eureka会再次将其纳入到服务器集群管理之中。当节点开始接受客户端请求时,所有的操作都会在节点间进行复制(replicate To Peer)操作,将请求复制到该Eureka Server当前所知的其它所有节点中。

当一个新的Eureka Server节点启动后,会首先尝试从邻近节点获取所有注册列表信息,并完成初始化。Eureka Server通过getEurekaServiceUrls()方法获取所有的节点,并且会通过心跳契约的方式定期更新。

默认情况下,如果Eureka Server在一定时间内没有接收到某个服务实例的心跳(默认周期为30秒),Eureka Server将会注销该实例(默认为90秒, eureka.instance.lease-expiration-duration-in-seconds进行自定义配置)。

当Eureka Server节点在短时间内丢失过多的心跳时,那么这个节点就会进入自我保护模式。

Eureka的集群中,只要有一台Eureka还在,就能保证注册服务可用(保证可用性),只不过查到的信息可能不是最新的(不保证强一致性)。除此之外,Eureka还有一种自我保护机制,如果在15分钟内超过85%的节点都没有正常的心跳,那么Eureka就认为客户端与注册中心出现了网络故障,此时会出现以下几种情况:

  • Eureka不再从注册表中移除因为长时间没有收到心跳而过期的服务;

  • Eureka仍然能够接受新服务注册和查询请求,但是不会被同步到其它节点上(即保证当前节点依然可用);

  • 当网络稳定时,当前实例新注册的信息会被同步到其它节点中。


因此,Eureka可以很好的应对因网络故障导致部分节点失去联系的情况,而不会像ZooKeeper那样使得整个注册服务瘫痪。

Consul

Consul是HashiCorp公司推出的开源工具,用于实现分布式系统的服务发现与配置。Consul使用Go语言编写,因此具有天然可移植性(支持Linux、Windows和Mac OS X)。

Consul内置了服务注册与发现框架、分布一致性协议实现、健康检查、Key/Value存储、多数据中心方案,不再需要依赖其他工具(比如ZooKeeper等),使用起来也较为简单。

Consul遵循CAP原理中的CP原则,保证了强一致性和分区容错性,且使用的是Raft算法,比ZooKeeper使用的Paxos算法更加简单。虽然保证了强一致性,但是可用性就相应下降了,例如服务注册的时间会稍长一些,因为 Consul 的 raft 协议要求必须过半数的节点都写入成功才认为注册成功;在Leader挂掉了之后,重新选举出Leader之前会导致Consul服务不可用。

微服务注册中心产品ZooKeeper、Eureka、Consul、Nacos对比

默认依赖于SDK

Consul本质上属于应用外的注册方式,但可以通过SDK简化注册流程。而服务发现恰好相反,默认依赖于SDK,但可以通过Consul Template(下文会提到)去除SDK依赖。

Consul Template

Consul默认服务调用者需要依赖Consul SDK来发现服务,这就无法保证对应用的零侵入性。

所幸通过Consul Template,可以定时从Consul集群获取最新的服务提供者列表并刷新LB配置(比如Nginx的Upstream),这样对于服务调用者而言,只需要配置一个统一的服务调用地址即可。

Consul强一致性(C)带来的是:

  • 服务注册相比Eureka会稍慢一些。因为Consul的Raft协议要求必须过半数的节点都写入成功才认为注册成功

  • Leader挂掉时,重新选举期间整个Consul不可用。保证了强一致性但牺牲了可用性。


Eureka保证高可用(A)和最终一致性:

  • 服务注册相对要快,因为不需要等注册信息Replicate到其他节点,也不保证注册信息是否Replicate成功

  • 当数据出现不一致时,虽然A,B上的注册信息不完全相同,但每个Eureka节点依然能够正常对外提供服务,这会出现查询服务信息时如果请求A查不到,但请求B就能查到。如此保证了可用性但牺牲了一致性。


其他方面,Eureka就是个servlet程序,跑在servlet容器中;Consul则是Go编写而成。

Nacos

Nacos是阿里开源的,Nacos支持基于DNS和基于RPC的服务发现。在Spring Cloud中使用Nacos,只需要先下载Nacos并启动Nacos server,Nacos只需要简单的配置就可以完成服务的注册发现。

Nacos除了服务的注册发现之外,还支持动态配置服务。动态配置服务可以让您以中心化、外部化和动态化的方式管理所有环境的应用配置和服务配置。动态配置消除了配置变更时重新部署应用和服务的需要,让配置管理变得更加高效和敏捷。配置中心化管理让实现无状态服务变得更简单,让服务按需弹性扩展变得更容易。

一句话概括就是Nacos = Spring Cloud注册中心 + Spring Cloud配置中心。

原文链接:https://blog.csdn.net/fly910905/article/details/100023415


Kubernetes安全专家认证(CKS)培训


本次CKS培训在北京开班,通过 线下授课、考题解读、模拟演练等方式,帮助学员快速掌握Kubernetes安全方面的知识和能力,并针对考试做特别强化训练,让学员能从容面对CKS认证考试,使学员既能掌握Kubernetes安全相关知识,又能通过CKS认证考试, 学员可多次参加培训,直到通过认证。点击下方图片或者阅读原文链接查看详情。


以上是关于2、微服务注册中心的主要内容,如果未能解决你的问题,请参考以下文章

71 nacos 实现微服务的注册与发现

zookeeper 做注册中心详细介绍

微服务——注册中心(EurekaNacos)

微服务之网关与注册中心高可用架构设计

Alibaba微服务组件Nacos注册中心

微服务系列之ZooKeeper注册中心和Nacos注册中心