Tendermint mempool分析

Posted 小圣.

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Tendermint mempool分析相关的知识,希望对你有一定的参考价值。

概述

在Tendermint/mempool/doc.go文件里,有对mempool详细的解释。

  • 当客户端提交一笔交易时,这笔交易首先会被mempool进行打包。而mempool的主要作用之一就是保存从其他peer或者自己收到的交易。以便其它模块的使用。
  • 交易进入到mempool之前还会调用一次客户端的CheckTx() 函数。并把检查通过的交易放入到交易池中。
  • 交易被放到交易池保证了交易的顺序性。
  • 共识引擎通过调用Update() 和 ReapMaxBytesMaxGas() 方法来更新内存池中的交易。
  • mempool的底层使用的是链表

mempool 接口

我们先看一下在mempool/mempool.go 文件里定义了的mempool功能的接口。

// 对内存池的更新需要与提交区块同步,这样应用程序就可以在提交时重置它们的瞬间状态。
type Mempool interface 
	// CheckTx对应用程序执行一个新事务,来确定它的有效性,以及是否应该将它添加到内存池。
	CheckTx(tx types.Tx, callback func(*abci.Response), txInfo TxInfo) error

	// ReapMaxBytesMaxGas从内存池中获取最多为maxBytes字节总数的事务,条件是总gasWanted必须小于maxGas。
	// 如果两个最大值都是负数,则所有返回交易的规模没有上限,返回所有可用的交易
	ReapMaxBytesMaxGas(maxBytes, maxGas int64) types.Txs

	// ReapMaxTxs从内存池中获取最多的事务。
	// 如果两个最大值都是负数,则所有返回交易的规模没有上限,返回所有可用的交易
	ReapMaxTxs(max int) types.Txs

	// Lock 锁定mempool。共识必须能持锁才能安全更新。
	Lock()

	// 解锁mempool
	Unlock()

	// Update通知内存池,给定的txs已经提交,可以被丢弃。
	// Update 应该在区块被共识提交后调用
	Update(
		blockHeight int64,
		blockTxs types.Txs,
		deliverTxResponses []*abci.ResponseDeliverTx,
		newPreFn PreCheckFunc,
		newPostFn PostCheckFunc,
	) error

	// FlushAppConn flushes the mempool connection to ensure async reqResCb calls are
	// done. E.g. from CheckTx.
	// NOTE: Lock/Unlock must be managed by caller
	FlushAppConn() error

	// Flush removes all transactions from the mempool and cache
	Flush()

	// TxsAvailable returns a channel which fires once for every height,
	// and only when transactions are available in the mempool.
	// NOTE: the returned channel may be nil if EnableTxsAvailable was not called.
	TxsAvailable() <-chan struct

	// EnableTxsAvailable initializes the TxsAvailable channel, ensuring it will
	// trigger once every height when transactions are available.
	EnableTxsAvailable()

	// Size returns the number of transactions in the mempool.
	Size() int

	// TxsBytes returns the total size of all txs in the mempool.
	TxsBytes() int64

	// InitWAL creates a directory for the WAL file and opens a file itself. If
	// there is an error, it will be of type *PathError.
	InitWAL() error

	// CloseWAL closes and discards the underlying WAL file.
	// Any further writes will not be relayed to disk.
	CloseWAL()

ClistMempool

ClistMempool.go 实现了mempool中定义的接口,并添加了一些其他的功能。其主要作用就是检查交易的合法性并判断是否加入交易池。

NewCListMempool

NewClistMempool 使用给定的配置和连接的application等参数,创建一个新的mempool。

func NewCListMempool(
	config *cfg.MempoolConfig,
	proxyAppConn proxy.AppConnMempool,
	height int64,
	options ...CListMempoolOption,
) *CListMempool 
	// 初始化相关的成员变量
	mempool := &CListMempool
		// 给定的配置
		config:        config,
		// 应用层连接
		proxyAppConn:  proxyAppConn,
		// 创建一个双向链表,用来保存交易
		txs:           clist.New(),
		height:        height,
		recheckCursor: nil,
		recheckEnd:    nil,
		logger:        log.NewNopLogger(),
		metrics:       NopMetrics(),
	
	if config.CacheSize > 0 
		// 创建内存池缓存
		mempool.cache = newMapTxCache(config.CacheSize)
	 else 
		mempool.cache = nopTxCache
	
	// 设置了代理连接的回调函数为globalCb(req *abci.Request, res *abci.Response)
	// 因为交易池在收到交易后会把交易提交给APP,根据APP的返回来决定后续如何这个交易
	// 如何处理,所以在APP处理完后的交易后回调mempool.globalCb 进而让mempool来继续决定当前交易如何处理
	proxyAppConn.SetResponseCallback(mempool.globalCb)
	for _, option := range options 
		option(mempool)
	
	return mempool

globalCb

Global callback 将会在每次ABCI 响应后进行调用。

func (mem *CListMempool) globalCb(req *abci.Request, res *abci.Response) 
	if mem.recheckCursor == nil 
		// 符合要求,什么也不做
		return
	

	mem.metrics.RecheckTimes.Add(1)
	// 也是检测交易是否符合要求,符合就什么也不做
	mem.resCbRecheck(req, res)

	// update metrics
	mem.metrics.Size.Set(float64(mem.Size()))

CheckTx

func (mem *CListMempool) CheckTx(tx types.Tx, cb func(*abci.Response), txInfo TxInfo) error 
	// 并发控制,也就是说当共识引擎在进行交易池读取和更新的时候,此函数应该是阻塞的
	mem.updateMtx.RLock()
	// use defer to unlock mutex because application (*local client*) might panic
	defer mem.updateMtx.RUnlock()

	txSize := len(tx)


	// 判断交易池是否满了
	if err := mem.isFull(txSize); err != nil 
		return err
	

	// 如果已经超过了设置的内存池则放弃加入
	if txSize > mem.config.MaxTxBytes 
		return ErrTxTooLargemem.config.MaxTxBytes, txSize
	

	if mem.preCheck != nil 
		if err := mem.preCheck(tx); err != nil 
			return ErrPreCheckerr
		
	

	// NOTE: writing to the WAL and calling proxy must be done before adding tx
	// to the cache. otherwise, if either of them fails, next time CheckTx is
	// called with tx, ErrTxInCache will be returned without tx being checked at
	// all even once.
	if mem.wal != nil 
		// TODO: Notify administrators when WAL fails
		_, err := mem.wal.Write(append([]byte(tx), newline...))
		if err != nil 
			return fmt.Errorf("wal.Write: %w", err)
		
	

	// NOTE: proxyAppConn may error if tx buffer is full
	if err := mem.proxyAppConn.Error(); err != nil 
		return err
	

	// 先加入交易池cache 如果cache中存在此交易则返回false
	if !mem.cache.Push(tx) 
		// Record a new sender for a tx we've already seen.
		// Note it's possible a tx is still in the cache but no longer in the mempool
		// (eg. after committing a block, txs are removed from mempool but not cache),
		// so we only record the sender for txs still in the mempool.
		if e, ok := mem.txsMap.Load(TxKey(tx)); ok 
			memTx := e.(*clist.CElement).Value.(*mempoolTx)
			_, loaded := memTx.senders.LoadOrStore(txInfo.SenderID, true)
			// TODO: consider punishing peer for dups,
			// its non-trivial since invalid txs can become valid,
			// but they can spam the same tx with little cost to them atm.
			if loaded 
				return ErrTxInCache
			
		

		mem.logger.Debug("tx exists already in cache", "tx_hash", tx.Hash())
		return nil
	

	ctx := context.Background()
	if txInfo.Context != nil 
		ctx = txInfo.Context
	

	// 此时把交易传给proxyAppConn,并得到APP检查的结果
	reqRes, err := mem.proxyAppConn.CheckTxAsync(ctx, abci.RequestCheckTxTx: tx)
	if err != nil 
		// 如果检查不通过,就从交易池缓存中移除这笔交易
		mem.cache.Remove(tx)
		return err
	
	reqRes.SetCallback(mem.reqResCb(tx, txInfo.SenderID, txInfo.SenderP2PID, cb))

	return nil


Reactor

mempool reactor主要功能是在peer之间广播包含交易的mempool。
跳过Reactor结构体和NewReactor(),我们直接来看OnStart()

OnStart

func (r *Reactor) OnStart() error 
	if !r.config.Broadcast 
		r.Logger.Info("tx broadcasting is disabled")
	

	// 处理Mempool通道的消息,最后会调用mempool中的CheckTx方法来判断是否要加入到内存池
	go r.processMempoolCh()
	// 处理每个节点的更新
	go r.processPeerUpdates()

	return nil

下图为从客户端提交的交易添加到交易池的过程:

最后

至此,Tendermint mempool源码就分析完了。如果有错误之处,希望路过的大佬能够指点指点。最后推荐一位大佬的公众号,欢迎关注哦:区块链技术栈

另外这个地址上还有很多区块链学习资料:https://github.com/mindcarver/blockchain_guide

参考文章:https://gitee.com/wupeaking/tendermint_code_analysis/blob/master/Mempool%E6%BA%90%E7%A0%81%E5%88%86%E6%9E%90.md

以上是关于Tendermint mempool分析的主要内容,如果未能解决你的问题,请参考以下文章

Tendermint 共识分析

Tendermint 共识分析

Tendermint 共识分析

glusterfs4.0.1 mempool 分析笔记

Tendermint P2P源码分析

tendermint state分析