技术分享| 基于 Etcd 的分布式锁实现原理及方案

Posted anyRTC

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了技术分享| 基于 Etcd 的分布式锁实现原理及方案相关的知识,希望对你有一定的参考价值。

1. 为什么选择 Etcd

据官网介绍,Etcd 是一个分布式,可靠的 Key-Value 存储系统,主要用于存储分布式系统中的关键数据。初见之下,Etcd 与 NoSQL 数据库系统有几分相似,但作为数据库绝非 Etcd 所长,其读写性能远不如 MongoDB、Redis 等 Key-Value 存储系统。“让专业的人做专业的事!” Ectd 作为一个高可用的键值存储系统,有很多典型的应用场景,本文将介绍 Etcd 的优秀实践之一:分布式锁。

1.1 Etcd 优点

目前,可实现分布式锁的开源软件有很多,其中应用最广泛、大家最熟悉的应该就是 ZooKeeper,此外还有数据库、Redis、Chubby 等。但若从读写性能、可靠性、可用性、安全性和复杂度等方面综合考量,作为后起之秀的 Etcd 无疑是其中的 “佼佼者” 。它完全媲美业界“名宿”ZooKeeper,在有些方面,Etcd 甚至超越了 ZooKeeper,如 Etcd 采用的 Raft 协议就要比 ZooKeeper 采用的 Zab 协议简单、易理解。

Etcd 作为 CoreOS 开源项目,有以下的特点。

  • 简单:使用 Go 语言编写,部署简单;支持 cURL 方式的用户 API (HTTP+JSON),使用简单;开源 Java 客户端使用简单;
  • 安全:可选 SSL 证书认证;
  • 快速:在保证强一致性的同时,读写性能优秀,详情可查看官方提供的 Benchmark 数据 ;
  • 可靠:采用 Raft 算法实现分布式系统数据的高可用性和强一致性。

1.2 分布式锁的基本原理

分布式环境下,多台机器上多个进程对同一个共享资源(数据、文件等)进行操作,如果不做互斥,就有可能出现“余额扣成负数”,或者“商品超卖”的情况。为了解决这个问题,需要分布式锁服务。首先,来看一下分布式锁应该具备哪些条件。

  • 互斥性:在任意时刻,对于同一个锁,只有一个客户端能持有,从而保证一个共享资源同一时间只能被一个客户端操作;
  • 安全性:即不会形成死锁,当一个客户端在持有锁的期间崩溃而没有主动解锁的情况下,其持有的锁也能够被正确释放,并保证后续其它客户端能加锁;
  • 可用性:当提供锁服务的节点发生宕机等不可恢复性故障时,“热备” 节点能够接替故障的节点继续提供服务,并保证自身持有的数据与故障节点一致。
  • 对称性:对于任意一个锁,其加锁和解锁必须是同一个客户端,即客户端 A 不能把客户端 B 加的锁给解了。

1.3 Etcd 实现分布式锁的基础

Etcd 的高可用性、强一致性不必多说,前面章节中已经阐明,本节主要介绍 Etcd 支持的以下机制:Watch 机制、Lease 机制、Revision 机制和 Prefix 机制,正是这些机制赋予了 Etcd 实现分布式锁的能力。

  • Lease 机制:即租约机制(TTL,Time To Live),Etcd 可以为存储的 Key-Value 对设置租约,当租约到期,Key-Value 将失效删除;同时也支持续约,通过客户端可以在租约到期之前续约,以避免 Key-Value 对过期失效。Lease 机制可以保证分布式锁的安全性,为锁对应的 Key 配置租约,即使锁的持有者因故障而不能主动释放锁,锁也会因租约到期而自动释放。
  • Revision 机制:每个 Key 带有一个 Revision 号,每进行一次事务便加一,因此它是全局唯一的,如初始值为 0,进行一次 put(key, value),Key 的 Revision 变为 1,同样的操作,再进行一次,Revision 变为 2;换成 key1 进行 put(key1, value) 操作,Revision 将变为 3;这种机制有一个作用:通过 Revision 的大小就可以知道写操作的顺序。在实现分布式锁时,多个客户端同时抢锁,根据 Revision 号大小依次获得锁,可以避免 “羊群效应” (也称“惊群效应”),实现公平锁。
  • Prefix 机制:即前缀机制,也称目录机制,例如,一个名为 /mylock 的锁,两个争抢它的客户端进行写操作,实际写入的 Key 分别为:key1=“/mylock/UUID1”,key2=“/mylock/UUID2”,其中,UUID 表示全局唯一的 ID,确保两个 Key 的唯一性。很显然,写操作都会成功,但返回的 Revision 不一样,那么,如何判断谁获得了锁呢?通过前缀“/mylock” 查询,返回包含两个 Key-Value 对的 Key-Value 列表,同时也包含它们的 Revision,通过 Revision 大小,客户端可以判断自己是否获得锁,如果抢锁失败,则等待锁释放(对应的 Key 被删除或者租约过期),然后再判断自己是否可以获得锁。
  • Watch 机制:即监听机制,Watch 机制支持监听某个固定的 Key,也支持监听一个范围(前缀机制),当被监听的 Key 或范围发生变化,客户端将收到通知;在实现分布式锁时,如果抢锁失败,可通过 Prefix 机制返回的 Key-Value 列表获得 Revision 比自己小且相差最小的 Key(称为 Pre-Key),对 Pre-Key 进行监听,因为只有它释放锁,自己才能获得锁,如果监听到 Pre-Key 的 DELETE 事件,则说明 Pre-Key 已经释放,自己已经持有锁。

2. Etcd 实现分布式锁

2.1 基于 Etcd 的分布式锁业务流程

下面描述了使用 Etcd 实现分布式锁的业务流程,假设对某个共享资源设置的锁名为:/anyrtc/mylock。

步骤1:准备
客户端连接 Etcd,以 /anyrtc/mylock 为前缀创建全局唯一的 Key,假设第一个客户端对应的 Key=“/anyrtc/mylock/UUID1”,第二个为 Key=“/anyrtc/mylock/UUID2”;客户端分别为自己的 Key 创建租约 Lease,租约的长度根据业务耗时确定,假设为 15s。

步骤2:创建定时任务作为租约的“心跳”
在一个客户端持有锁期间,其它客户端只能等待,为了避免等待期间租约失效,客户端需创建一个定时任务作为“心跳”进行续约。此外,如果持有锁期间客户端崩溃,心跳停止,Key 将因租约到期而被删除,从而锁释放,避免死锁。

步骤3:客户端将自己全局唯一的 Key 写入 Etcd
进行 Put 操作,将步骤 1 中创建的 Key 绑定租约写入 Etcd,根据 Etcd 的 Revision 机制,假设两个客户端 Put 操作返回的 Revision 分别为1、2,客户端需记录 Revision 用以接下来判断自己是否获得锁。

步骤4:客户端判断是否获得锁
客户端以前缀 /anyrtc/mylock 读取 Key-Value 列表(Key-Value 中带有 Key 对应的 Revision),判断自己 Key 的 Revision 是否为当前列表中最小的,如果是则认为获得锁;否则监听列表中前一个 Revision 比自己小的 Key 的删除事件,一旦监听到删除事件或者因租约失效而删除的事件,则自己获得锁。

步骤5:执行业务
获得锁后,操作共享资源,执行业务代码。

步骤6:释放锁
完成业务流程后,删除对应的 Key 释放锁。

2.2 基于 Etcd 的分布式锁的原理图

根据上一节中介绍的业务流程,基于Etcd的分布式锁示意图如下。

业务流程图大家可参看这篇文章《Zookeeper 分布式锁实现原理》

2.3 基于golang实现Etcd的分布式锁

分布式锁EtcdLocker代码

package etcd

import (
	"context"
	clientV3 "go.etcd.io/etcd/client/v3"
	"log"
	"os"
	"time"
)

// EtcdLocker 分布式锁结构体
type EtcdLocker struct 
	client     *clientV3.Client // 连接到etcd的客户端实例
	lease      clientV3.Lease   // 在etcd上的租约实例
	leaseId    clientV3.LeaseID
	cancelFunc context.CancelFunc
	option     Option


// Option EtcdClient的配置选项
type Option struct 
	ConnectionTimeout time.Duration // 连接到etcd的超时时间,示例:5*time.Second
	LeaseTtl          int64         // 租约时长,连接异常断开后,未续租的租约会在这个时间之后失效
	Prefix            string        // 锁前缀
	Username          string        // 用户名,可选
	Password          string        // 密码,可选
	Debug             bool


// New 创建一把锁
//  etcdEndpoints etcd连接信息,示例:[]string"localhost:2379"
//  option 连接选项,包clientV3.Config中的配置项很多,我们其实用不到它们那么多,简化一下
func New(etcdEndpoints []string, option Option) (locker *EtcdLocker, err error) 
	if option.Prefix == "" 
		option.Prefix = "distribution_lock:"
	
	if option.ConnectionTimeout <= 0 
		option.ConnectionTimeout = 5 * time.Second
	
	if option.LeaseTtl <= 0 
		option.LeaseTtl = 5
	
	config := clientV3.Config
		Endpoints:   etcdEndpoints,
		DialTimeout: option.ConnectionTimeout,
		Username:    option.Username,
		Password:    option.Password,
	
	locker = &EtcdLocker
		option: option,
	
	if locker.client, err = clientV3.New(config); err != nil 
		return nil, err
	
	var timeoutCtx, cancel = context.Background(), locker.timeoutCancel
	timeoutCtx, cancel = context.WithTimeout(context.Background(), option.ConnectionTimeout)
	defer cancel()
	if _, err := locker.client.Status(timeoutCtx, etcdEndpoints[0]); err != nil 
		return nil, err
	

	//上锁并创建租约
	locker.lease = clientV3.NewLease(locker.client)
	var leaseGrantResp *clientV3.LeaseGrantResponse
	// 第2个参数TTL,可以用于控制如果当前进程和etcd连接断开了,持有锁的上下文多长时间失效
	if leaseGrantResp, err = locker.lease.Grant(context.TODO(), option.LeaseTtl); err != nil 
		return nil, err
	
	locker.leaseId = leaseGrantResp.ID
	var ctx context.Context
	// 创建一个可取消的租约,主要是为了退出的时候能够释放
	ctx, locker.cancelFunc = context.WithCancel(context.Background())
	var keepRespChan <-chan *clientV3.LeaseKeepAliveResponse
	if keepRespChan, err = locker.lease.KeepAlive(ctx, locker.leaseId); err != nil 
		return nil, err
	
	// 续约应答
	go func() 
		for 
			select 
			case keepResp := <-keepRespChan:
				if keepResp == nil 
					if locker.option.Debug 
						log.Printf("进程 %+v 的锁 %+v 的租约已经失效了", os.Getpid(), locker.leaseId)
					
					return
				 else  // 每秒会续租一次, 所以就会收到一次应答
					if locker.option.Debug 
						log.Printf("进程 %+v 收到自动续租应答 %+v", os.Getpid(), keepResp.ID)
					
				
			
		
	()
	return locker, nil


func (locker *EtcdLocker) timeoutCancel() 
	if locker.option.Debug 
		log.Printf("进程 %+v 的锁操作撤销", os.Getpid())
	


// GetId 获得当前锁的内部ID
func (locker *EtcdLocker) GetId() int64 
	return int64(locker.leaseId)

// Acquire 获得锁
// lockerId 锁ID,推荐使用UUID或雪花算法,确保唯一性,防止复杂业务+大量数据的情况下发生锁冲撞
// 返回值:who 如果获得锁失败,此ID可以标示锁现在在谁手中(这个谁,来自于GetId()的返回值
//        换句话说,A进程获得锁之后,可以通过GetId知道自己的ID是多少,此时B进程获得锁失败,可以通过who返回值知道锁在A手中
func (locker *EtcdLocker) Acquire(lockerId string) (who int64, ok bool) 
	var err error
	// 在租约时间内去抢锁(etcd 里面的锁就是一个 key)
	kv := clientV3.NewKV(locker.client)

	// 创建事务
	txn := kv.Txn(context.TODO())
	// 定义锁的Key
	var lockerKey = locker.option.Prefix + lockerId
	// If 不存在 key,Then 设置它,Else 抢锁失败
	txn.If(clientV3.Compare(clientV3.CreateRevision(lockerKey), "=", 0)).
		Then(clientV3.OpPut(lockerKey, lockerId, clientV3.WithLease(locker.leaseId))).
		Else(clientV3.OpGet(lockerKey))
	var txnResp *clientV3.TxnResponse
	if txnResp, err = txn.Commit(); err != nil 
		return 0, false
	

	if !txnResp.Succeeded 
		return txnResp.Responses[0].GetResponseRange().Kvs[0].Lease, false
	
	return 0, true


// Release 释放锁
func (locker *EtcdLocker) Release() error 
	locker.cancelFunc()
	if _, err := locker.lease.Revoke(context.TODO(), locker.leaseId); err != nil 
		return err
	
	return nil

EtcdLocker Test方法

package etcd

import (
	"fmt"
	"log"
	"os"
	"sync"
	"sync/atomic"
	"testing"
	"time"
)

var etcdEndpoint = []string"192.168.1.111:2379"

// 一把锁,开调试
func TestEtcdLockerOneAsDebug(t *testing.T) 
	option := Option
		ConnectionTimeout: 5 * time.Second,
		Prefix:            "",
		Debug:             true,
	
	if locker, err := New(etcdEndpoint, option); err != nil 
		log.Fatalf("创建锁失败:%+v", err)
	 else if who, ok := locker.Acquire("EtcdLockerOneAsDebug"); ok 
		// 抢到锁后执行业务逻辑,没有抢到则退出
		t.Logf("进程 %+v 持有锁 %+v 正在处理任务中...", os.Getpid(), locker.GetId())
		time.Sleep(5 * time.Second) // 这是正在做的事情,假定耗时5秒
		t.Logf("进程 %+v 的任务处理完了", os.Getpid())
		// 手动释放锁,在后台应用服务中,也可以通过defer释放
		if err := locker.Release(); err != nil 
			log.Fatalf("释放锁失败:%+v", err)
		 else 
			time.Sleep(2 * time.Second)
		
	 else 
		t.Logf("获取锁失败,锁现在在 %+v 手中", who)
	


// 一把锁,不开调试带前缀
func TestEtcdLockerOneNoneDebugAndPrefix(t *testing.T) 
	option := Option
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "MyEtcdLocker",
		Debug:             false,
	
	if locker, err := New(etcdEndpoint, option); err != nil 
		log.Fatalf("创建锁失败:%+v", err)
	 else if who, ok := locker.Acquire("EtcdLockerOneNoneDebugAndPrefix"); ok 
		// 抢到锁后执行业务逻辑,没有抢到则退出
		t.Logf("进程 %+v 持有锁 %+v 正在处理任务中...", os.Getpid(), locker.GetId())
		time.Sleep(5 * time.Second) // 这是正在做的事情,假定耗时5秒
		t.Logf("进程 %+v 的任务处理完了", os.Getpid())
		// 手动释放锁,在后台应用服务中,也可以通过defer释放
		if err := locker.Release(); err != nil 
			log.Fatalf("释放锁失败:%+v", err)
		 else 
			time.Sleep(1 * time.Second)
		
	 else 
		t.Logf("获取锁失败,锁现在在 %+v 手中", who)
	


// 一把锁,多任务(多请求)竞争锁,
// 此测试用例还可以通过命令 go test -run="TestEtcdLockerMultiTask" 开多个进程进行并行竞争测试
// 多进程测试时的结果验证方法,条件:多个测试只要有一个未完成,预期结果是:获取锁失败,successCount的值就是0
func TestEtcdLockerMultiTask(t *testing.T) 
	const taskCount = 5
	option := Option
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "MyEtcdLocker",
		Debug:             false,
	
	var successCount int64 = 0
	var wg sync.WaitGroup
	for i := 0; i < taskCount; i++ 
		wg.Add(1)
		go func(taskId int) 
			defer wg.Done()
			if locker, err := New(etcdEndpoint, option); err != nil 
				log.Fatalf("[%+v]创建锁失败:%+v", taskId, err)
			 else if who, ok := locker.Acquire("EtcdLockerMulti"); ok 
				// 抢到锁后执行业务逻辑,没有抢到则退出
				t.Logf("[%+v]进程 %+v 持有锁 %+v 正在处理任务中...", taskId, os.Getpid(), locker.GetId())
				atomic.AddInt64(&successCount, 1)
				time.Sleep(5 * time.Second) // 这是正在做的事情,假定耗时5秒
				t.Logf("[%+v]进程 %+v 的任务处理完了", taskId, os.Getpid())
				// 手动释放锁,在后台应用服务中,也可以通过defer释放
				if err := locker.Release(); err != nil 
					log.Fatalf("[%+v]释放锁失败:%+v", taskId, err)
				 else 
					time.Sleep(1 * time.Second)
				
			 else 
				t.Logf("[%+v]获取锁失败,锁现在在 %+v 手中", taskId, who)
			
		(i)
	
	wg.Wait()
	if successCount != 1 
		t.Fatalf("进程 %+v 的分布式锁功能存在BUG", os.Getpid())
	


// 多把锁,多任务(多请求),各有各的锁
func TestEtcdLockerMultiBusinessMultiLocker(t *testing.T) 
	const taskCount = 5
	option := Option
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "MyEtcdLocker",
		Debug:             false,
	
	var successCount int64 = 0
	var wg sync.WaitGroup
	for i := 0; i < taskCount; i++ 
		wg.Add(1)
		go func(taskId int) 
			defer wg.Done()
			if locker, err := New(etcdEndpoint, option); err != nil 
				log.Fatalf("[%+v]创建锁失败:%+v", taskId, err)
			 else if who, ok := locker.Acquire(fmt.Sprintf("EtcdLockerMulti_%d", taskId)); ok 
				// 抢到锁后执行业务逻辑,没有抢到则退出
				t.Logf("[%+v]进程 %+v 持有锁 %+v 正在处理任务中...", taskId, os.Getpid(), locker.GetId())
				atomic.AddInt64(&successCount, 1)
				time.Sleep(8 * time.Second) // 这是正在做的事情,假定耗时8秒
				t.Logf("[%+v]进程 %+v 的任务处理完了", taskId, os.Getpid())
				// 手动释放锁,在后台应用服务中,也可以通过defer释放
				if err := locker.Release(); err != nil 
					log.Fatalf("[%+v]释放锁失败:%+v", taskId, err)
				 else 
					time.Sleep(1 * time.Second)
				
			 else 
				t.Logf("[%+v]获取锁失败,锁现在在 %+v 手中", taskId, who)
			
		(i)
	
	wg.Wait()
	if successCount != taskCount 
		t.Fatalf("进程 %+v 的分布式锁功能存在BUG", os.Getpid())
	


func TestEtcdLocker_GetId(t *testing.T) 
	option := Option
		ConnectionTimeout: 3 * time.Second,
		Prefix:            "EtcdLocker_GetId",
		Debug:             true,
	
	if locker, err := New(etcdEndpoint, option); err != nil 
		log.Fatalf("创建锁失败:%+v", err)
	 else if who, ok := locker.Acquire("EtcdLocker_GetId"); ok 
		// 抢到锁后执行业务逻辑,没有抢到则退出
		t.Logf("进程 %+v 持有锁 %+v 正在处理任务中...", os.Getpid(), locker.GetId())
		time.Sleep(2 * time.Second) // 这是正在做的事情,假定耗时2秒
		t.Logf("进程 %+v 的任务处理完了", os.Getpid())
		// 手动释放锁,在后台应用服务中,也可以通过defer释放
		if err := locker.Release(); err != nil 
			log.Fatalf("释放锁失败:%+v", err)
		 else 
			time.Sleep(1 * time.Second)
		
	 else 
		t.Logf("获取锁失败,锁现在在 %+v 手中", who)
	

参考文档

Etcd官网
Etcd
技术文章摘抄
基于 etcd 实现分布式锁

以上是关于技术分享| 基于 Etcd 的分布式锁实现原理及方案的主要内容,如果未能解决你的问题,请参考以下文章

etcd 分布式锁实现原理

基于ETCD实现分布式锁&实战:控制多个应用仅一台执行任务

基于ETCD实现分布式锁&实战:控制多个应用仅一台执行任务

基于ETCD实现分布式锁&实战:控制多个应用仅一台执行任务

Consul分布式锁原理详解及实例

kubernetes 核心组件之 etcd