FFmpeg源码走读之内存管理模型
Posted 响箭零零一
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了FFmpeg源码走读之内存管理模型相关的知识,希望对你有一定的参考价值。
1 FFmpeg内存管理原理
数据包管理过程中当数据转移到新的数据包时存在两种操作一种是数据包之间相互独立,当新创建一份数据包时,需要将原来的数据重新申请一个数据空间并且将数据拷贝到新的数据包中,具体过程如下图所示。这种数据包的管理优势是在于数据之间相互独立,不会存在数据干扰的问题,但是缺点也很明显就是消耗的内存大大增加,同时数据之间的拷贝也是耗时的。
另一种内存管理的方式是,只新增数据包对象,用于管理数据对象,对于数据本身采用同一个内存空间进行管理,当所有的内存引用为0时释放这片内存空间,具体如下图所示。这种方式的优势就是数据占用内存最小化,同时大大减少数据拷贝的耗时问题;缺点是增加了内存管理的难度。FFmpeg正是采用这种内存管理的方式进行数据包和数据帧的管理。
2 FFmpeg内存管理实现
2.1 AVPacket实现
核心API | 功能 |
---|---|
av_packet_alloc | 申请AVPacket |
av_packet_free | 释放AVPacket |
av_init_packet | 初始化AVPacket |
av_new_packet | 申请AVBufferRef和AVBuffer数据空间,引用计数设置为1 |
av_buffer_ref | 新申请AVBufferRef,AVBuffer引用计数加一 |
av_buffer_unref | 释放AVBufferRef,AVBuffer引用计数减一 |
AVPacket 内存模型如下图所示,AVBuffer存放具体数据,AVBufferRef用于管理AVBuffer,AVPacket 是实际对外数据包体。
引用计数加一和引用计数减一一个逆过程,具体如下图所示,加一主要是增加AVBufferRef和引用计数;减一主要是释放AVBufferRef和引用计数减少。当引用计数减到0时,需要释放AVBuffer数据区。
源码走读如下所示:
//1 申请AVPacket内存,并初始化
AVPacket *av_packet_alloc(void)
//1 分配AVPacket 内存
//2 将AVPacket解引用
av_packet_unref
//AVPacket 初始化
av_init_packet
//释放AVPacket内存,引用减1
void av_packet_free(AVPacket **pkt);
//初始化AVPacket
void av_init_packet(AVPacket *pkt);
//新申请AVPacket的数据空间
int av_new_packet(AVPacket *pkt, int size)
//分配AVBufferRef内存空间
packet_alloc
av_buffer_realloc
//分配AVBufferRef内存
av_buffer_create
//先分配AVBuffer,并且注册释放回调函数,refcount引用计数加一
//再分配AVBufferRef,并将指针与AVBuffer绑定
//引用计数加一
AVBufferRef *av_buffer_ref(AVBufferRef *buf)
//新分配一个AVBufferRef;将旧的AVBufferRef复制给它,同时引用计数加1
*ret = *buf;//结构体赋值的方式,浅拷贝
//引用计数减一
void av_buffer_unref(AVBufferRef **buf)
//AVBufferRef释放,同时AVBuffer计数减一,当计数为1时释放
buffer_replace
//利用回调释放数据
b->free
2.2 AVFrame实现
核心API | 功能 |
---|---|
av_frame_alloc | 申请AVFrame |
av_frame_free | 释放AVFrame |
av_frame_get_buffer | 申请AVBufferRef和AVFrame数据空间 |
av_frame_ref | 新申请AVBufferRef,AVFrame引用计数加一 |
av_frame_unref | 释放AVBufferRef,AVFrame引用计数减一 |
av_frame_move_ref | AVFrame转移引用计数 |
AVFrame实现原理与AVPacket 一致,都是利用AVBufferRef进行引用计数的管理,同时数据存储在AVBuffer中,只有保存一份,av_frame_ref负责将引用计数加一,av_frame_unref引用计数减一,当引用计数减到0后,进行数据释放。
3 FFmpeg内存接口实践
利用qt进行FFmpeg环境构建,首先是下载FFmpeg依赖库和头文件,这里使用的是win32的已经编译好的FFmpeg库,ffmpeg-4.2.1-win32-dev头文件和库。
首先构建一个空的c项目,同时创建好需要测试的avpacket文件,在依赖项.pro文件需要添加对FFmpeg的依赖,包括两部分一个是头文件路径,第二是库路径。具体如下所示。
win32
INCLUDEPATH += $$PWD/ffmpeg-4.2.1-win32-dev/include
LIBS += $$PWD/ffmpeg-4.2.1-win32-dev/lib/avformat.lib \\
$$PWD/ffmpeg-4.2.1-win32-dev/lib/avcodec.lib \\
$$PWD/ffmpeg-4.2.1-win32-dev/lib/avdevice.lib \\
$$PWD/ffmpeg-4.2.1-win32-dev/lib/avfilter.lib \\
$$PWD/ffmpeg-4.2.1-win32-dev/lib/avutil.lib \\
$$PWD/ffmpeg-4.2.1-win32-dev/lib/postproc.lib \\
$$PWD/ffmpeg-4.2.1-win32-dev/lib/swresample.lib \\
$$PWD/ffmpeg-4.2.1-win32-dev/lib/swscale.lib
注意ffmpeg-4.2.1-win32-dev文件放到项目的根路径如下所示。
接下来是测试FFmpeg是否可以正常使用,具体测试程序如下,获取FFmpeg的版本。
执行效果如下所示:
1 实现简单的内存分配和释放操作
需要注意的点:
- av_packet_alloc内部会进行初始化,所以不需要再调用av_init_packet初始化;
- av_packet_free内部会进行解引用,所以不需要再调用av_packet_unref;
- av_init_packet一定不能在av_new_packet之后使用会造成内存泄漏
- 对同一个AVPacket进行多次av_packet_ref而没有av_packet_unref会造成内存泄漏。
av_new_packet用于分配到:AVBufferRef引用管理,同时会分配数据部分AVBuffer,同时引用计数设置refcount为1.
经过av_packet_move_ref之后AVBufferRef整体被转移到pkt2中,同时会调用av_init_packet初始化pkt;
经过av_packet_clone之后会主动分配一个AVPacket因此不需要事先分配alloc一个;clone后pkt和pkt2数据区都是指向同一个AVFrame数据区。
经过av_packet_ref后,pkt2首先需要av_packet_alloc一个AVPacket,然后经过此函数后会分配AVBufferRef和将数据指向同一个AVFrame数据区。
AVFrame帧的操作与packet分配原理一致,使用方式也类似。主要包括几个步骤一个是av_frame_alloc分配一个AVFrame帧,然后稍微有点不同的是需要为帧进行初始化,然后来确认是视频帧还是音频帧。第二步是av_frame_get_buffer获取帧的数据区也就是AVBufferRef和AVBuffer这里有一个比较特殊的地方是这里预制了一个长度为8的AVBufferRef指针数组,主要是用于不同的数据存储格式不一样需要多个内存空间。最后是确保AVFrame是可写的,在进行数据操作。释放利用av_frame_free。
获取分配数据帧的需要设置相关的参数,帧的数据格式;如果是视频需要设置分辨率;如果是音频需要设置步长,通道数等参数;主要原因是分配数据时根据这些参数计算分配数据空间大小。
Memcached源码分析之内存管理
先再说明一下,我本次分析的memcached版本是1.4.20,有些旧的版本关于内存管理的机制和数据结构与1.4.20有一定的差异(本文中会提到)。
一)模型分析
在开始解剖memcached关于内存管理的源代码之前,先宏观上分析一下memcached内存管理的模型是怎样子的:
提个建议,我觉得memcached内存管理的模型与我们平时做作业的作业本“画格子给我们往格子里面写字”的逻辑很像,一本本作业本就是我们的内存空间,而我们往里写的字就是我们要存下来的数据,所以分析的时候可以想像一下用方格作业本写字的情景。
1)首先,先介绍memcached中关于内存管理的几个重要的概念:
a)slab、chunk
slab是一块内存空间,默认大小为1M,而memcached会把一个slab分割成一个个chunk,比如说1M的slab分成两个0.5M的chunk,所以说slab和chunk其实都是代表实质的内存空间,chunk只是把slab分割后的更小的单元而已。
slab就相当于作业本中的“页”,而chunk则是把一页画成一个个格子中的“格”。
b)item
item是我们要保存的数据,例如php代码:$memcached->set(“name”,”abc”,30);代表我们把一个key为name,value为abc的键值对保存在内存中30秒,那么上述中的”name”, “abc”, 30这些数据实质都是我们要memcached保存下来的数据, memcached会把这些数据打包成一个item,这个item其实是memcached中的一个结构体(当然结构远不止上面提到的三个字段这么简单),把打包好的item保存起来,完成工作。而item保存在哪里?其实就是上面提到的”chunk”,一个item保存在一个chunk中。
chunk是实质的内存空间,item是要保存的东西,所以关系是:item是往chunk中塞的。
还是拿作业本来比喻,item就是相当于我们要写的“字”,把它写到作业本某一“页(slab)”中的“格子(chunk)”里。
c)slabclass
通过上面a)b)我们知道,slab(都假设为1M)会割成一个个chunk,而item往chunk中塞。
那么问题来了:
我们要把这个1M的slab割成多少个chunk?就是一页纸,要画多少个格子?
我们往chunk中塞item的时候,item总不可能会与chunk的大小完全匹配吧,chunk太小塞不下或者chunk太大浪费了怎么办?就是我们写字的时候,格子太小,字出界了,或者我们的字很小写在一个大格子里面好浪费。
所以memcached的设计是,我们会准备“几种slab”,而不同一种的slab分割的chunk的大小不一样,也就是说根据“slab分割的chunk的大小不一样”来分成“不同的种类的slab”,而 slabclass就是“slab的种类”的意思了。
继续拿作业本来比喻:假设我们现在有很多张A4纸,有些我们画成100个格子,有些我们画成200个格子,有些300…。我们把画了相同个格子(也相同大小)的纸钉在一起,成为一本本“作业本”,每本“作业本”的格子大小都是一样的,不同的“作业本”也代表着“画了不同的大小格子的A4纸的集合”,而这个作业本就是slabclass啦!
所以当你要写字(item)的时候,你估一下你的字有多“大”,然后挑一本作业本(slabclass),在某一页(slab)空白的格子(chunk)上写。(我真是学霸。。-_-||)
每个slabclass在memcached中都表现为一个结构体,里面会有个指针,指向它的那一堆slab。
2)对上面的概念有了个感性的认识了,我们来解剖memcached中比较重要的结构体和变量:
a)slabclass_t(即上面说到的slabclass类型)
- typedef struct {
- unsigned int size; //chunk的大小 或者说item的大小
- unsigned int perslab;//每个slab有多少个item,slab又称“页”
- /**
- 下面这个slots的解析:
- 当前slabclass的空闲item链表,也是可用item链表,当前slabclass一切可以用的内存空间都在此,
- 这里是内存分配的入口,分配内存的时候都是在这个链表上挤一个出去。
- ps:memcached的新版本才开始把slots作为“所有空闲的item链接”的用途,以前的版本slots链表保存的是“回收的item”的意思,
- 而旧版本新分配的slab,是用end_page_ptr指针及end_page_free来控制,此版本已不用。
- */
- void *slots;
- unsigned int sl_curr; //当前slabclass还剩多少空闲的item,即上面的slots数
- unsigned int slabs; //这个slabclass分配了多少个slab了
- /**
- 下面slab_list和lisa_size的解析:
- slab_list是这个slabclass下的slabs列表,逻辑上是一个数组,每个元素是一个slab指针。
- list_size是slab_list的元素个数。
- 注意这个list_size和上面的slabs的不同:
- 由于slab_list是一个空间大小固定的数组,是数组!而list_size是这个数组元素的个数,代表slab_list的空间大小。
- slabs代表已经分配出去的slabs数,list_size则代表可以有多少个slabs数
- 所以当slabs等于list_size的时候代表这个slab_list已经满了,得增大空间。
- */
- void **slab_list;
- unsigned int list_size;
- unsigned int killing; /* index+1 of dying slab, or zero if none */
- size_t requested; /* The number of requested bytes */
- } slabclass_t;
代码注释中已经把大部分字段解析了,但再重点解析一个字段:slot,很重要。
回想我们的作业本,写字的时候只需要知道作业本中的下一个空白格子在哪里然后写上去即可,因为用作业本写字是有规律的,总是从第一页第一行左边开始往右写,所以已经用的格子总是连续的。
旧版本的memcached也是用这种思路,每个slabclass保存着一个指向下一个空白chunk的指针的变量(end_page_ptr),但memcached内存管理和写作业很不一样的地方在于,memcached里面保存的item是会过期的,而且每个item的过期时间都很可能不一样,也就是说作业本里面有些字会过期,过期之后相应的空格可以回收并再次利用,由于这些回收的item是不连续的,所以旧版本的memcached把每个slabclass中过期的item串成一个链表,而每个slabclass中的slot就是它相应的被回收的item链表。所以旧版本的memcached在分配内存空间的时候,先去slot找有没有回收的item,没有的话再去end_page_ptr找到下一个新的可用的空白的chunk。
新版本的memcached包括现在分析的1.4.20版本,memcached把旧版本end_page_ptr去掉,把新的可用的chunk也整合到slot中,也就是说slot的定义由“回收的item”变为“空闲可用的item”,每当我们新开辟一个slab并把它分割成一个个chunk的时候,同时马上把这些chunk先初始化成有结构的item(item是一个结构体),只是这个item的用户数据字段为空,待填充状态,称这些item为”free的item”,并把这些free的item串成链表保存在slot中。而旧的item过期了,回收了,也变成”free的item”,也同样插入到这个slot链表中。所以在新版本memcached中slabclass的slot的概念是指“空闲的item链表”!虽然这时内存分配的逻辑没有旧版本那样像作业本的思路那么形象,但代码和逻辑都变得更纯粹了,每次要分配内存,只需要直接从slot链表中拿一个出去即可。
memcached在启动的时候会实例化几本“作业本”:
- static slabclass_t slabclass[MAX_NUMBER_OF_SLAB_CLASSES];
slabclass[i]就是一本”作业本”,i理解为作业本的id。
b)item结构体
- typedef struct _stritem {
- struct _stritem *next; //链表中下一个,这个链表有可能是slots链表,也有可能是LRU链表,但一个item不可能同时这两个链表中,所以复用一个指针。
- struct _stritem *prev; //链表中上一个。
- struct _stritem *h_next; //相同hash值中链表的下一个。
- rel_time_t time; //最近访问时间
- rel_time_t exptime; //过期时间
- int nbytes; //value的字节数
- unsigned short refcount; //引用计数
- uint8_t nsuffix; //后缀长度
- uint8_t it_flags; //标记
- uint8_t slabs_clsid; //item所在的slabclass的id值
- uint8_t nkey; //键长
- /* this odd type prevents type-punning issues when we do
- * the little shuffle to save space when not using CAS. */
- union {
- uint64_t cas;
- char end;
- } data[]; //数据,这个数据不仅仅包括key对应的value,还有key、CAS、后缀等等数据也存在此,所以它有4部分“拼”成:CAS(可选),KEY,后缀,VALUE。
- /* if it_flags & ITEM_CAS we have 8 bytes CAS */
- /* then null-terminated key */
- /* then " flags length\r\n" (no terminating null) */
- /* then data with terminating \r\n (no terminating null; it‘s binary!) */
- } item;
c)head变量和tail变量
使用内存保存数据总会有满的情况,满就得淘汰,而memcached中的淘汰机制是LRU(最近最少使用算法 ),所以每个slabclass都保存着一个LRU队列,而head[i]和tail[i]则就是id为i的slabclass LRU队列的头部和尾部,尾部的item是最应该淘汰的项,也就是最近最少使用的项。
3)下面结合下面的结构图对memcached内存分配的模型进行解说:
a)初始化slabclass数组,每个元素slabclass[i]都是不同size的slabclass。
b)每开辟一个新的slab,都会根据所在的slabclass的size来分割chunk,分割完chunk之后,把chunk空间初始化成一个个free item,并插入到slot链表中。
c)我们每使用一个free item都会从slot链表中删除掉并插入到LRU链表相应的位置。
d)每当一个used item被访问的时候都会更新它在LRU链表中的位置,以保证LRU链表从尾到头淘汰的权重是由高到低的。
e)会有另一个叫“item爬虫”的线程(以后会讲到)慢慢地从LRU链表中去爬,把过期的item淘汰掉然后重新插入到slot链表中(但这种方式并不实时,并不会一过期就回收)。
f)当我们要进行内存分配时,例如一个SET命令,它的一般步骤是:
计算出要保存的数据的大小,然后选择相应的slabclass进入下面处理:
首先,从相应的slabclass LRU链表的尾部开始,尝试找几次(默认是5次),看看有没有过期的item(虽然有item爬虫线程在帮忙查找,但这里分配的时候,程序还是会尝试一下自己找,自己临时充当牛爬虫的角色),如果有就利用这个过期的item空间。
如果没找到过期的,则尝试去slot链表中拿空闲的free item。
如果slot链表中没有空闲的free item了,尝试申请内存,开辟一块新的slab,开辟成功后,slot链表就又有可用的free item了。
如果开不了新的slab那说明内存都已经满了,用完了,只能淘汰,所以用LRU链表尾部找出一个item淘汰之,并作为free item返回。
二)代码实现
从函数item_alloc说起,上一篇状态机文中也提到,如果是SET命令最终会来到item_alloc函数执行内存分配的工作,我们看下它的代码:
- item *item_alloc(char *key, size_t nkey, int flags, rel_time_t exptime, int nbytes) {
- item *it;
- it = do_item_alloc(key, nkey, flags, exptime, nbytes, 0); //调用do_item_alloc
- return it;
- }
- /**
- item分配
- 把这个函数弄清楚,基本就把memcached内存管理机制大体弄清楚了。
- */
- item *do_item_alloc(char *key, const size_t nkey, const int flags,
- const rel_time_t exptime, const int nbytes,
- const uint32_t cur_hv) {
- uint8_t nsuffix;
- item *it = NULL;
- char suffix[40];
- size_t ntotal = item_make_header(nkey + 1, flags, nbytes, suffix, &nsuffix); //item总大小
- if (settings.use_cas) {
- ntotal += sizeof(uint64_t); //如果有用到cas 那么item大小还要加上unit64_t的size
- }
- unsigned int id = slabs_clsid(ntotal); //根据item大小,找到适合的slabclass
- if (id == 0)
- return 0;
- mutex_lock(&cache_lock); //cache锁
- /* do a quick check if we have any expired items in the tail.. */
- /* 准备分配新的item了,随便快速瞄一下lru链表末尾有没有过期item,有的话就用过期的空间 */
- int tries = 5;
- int tried_alloc = 0;
- item *search;
- void *hold_lock = NULL;
- rel_time_t oldest_live = settings.oldest_live;
- search = tails[id]; //这个tails是一个全局变量,tails[xx]是id为xx的slabclass lru链表的尾部
- //从LRU链表尾部(就是最久没使用过的item)开始往前找
- for (; tries > 0 && search != NULL; tries--, search=search->prev) {
- if (search->nbytes == 0 && search->nkey == 0 && search->it_flags == 1) {
- /* We are a crawler, ignore it. */
- /*
- 这里注释意思是说我们现在是以爬虫的身份来爬出过期的空间,
- 像爬到这种异常的item,就别管了,不是爬虫要做的事,不要就行了。
- */
- tries++;
- continue;
- }
- /**
- 你会看到很多地方有下面这个hv,在这先简单说下,也可先略过,其实它是对item的一个hash,得到hv值,这个hv主要有两个
- 作用:
- 1)用于hash表保存item,通过hv计算出哈希表中的桶号
- 2)用于item lock表中锁住item,通过hv计算出应该用item lock表中哪个锁对当前item进行加锁
- 这两者都涉及到一个粒度问题,不可能保证每个不一样的key的hv不会相同,所有hash方法都可能
- 出现冲突。
- 所以hash表中用链表的方式处理冲突的item,而item lock表中会多个item共享一个锁,或者说
- 多个桶共享一个锁。
- */
- uint32_t hv = hash(ITEM_key(search), search->nkey);
- /* Attempt to hash item lock the "search" item. If locked, no
- * other callers can incr the refcount
- */
- /* Don‘t accidentally grab ourselves, or bail if we can‘t quicklock */
- /**
- 尝试去锁住当前item。
- */
- if (hv == cur_hv || (hold_lock = item_trylock(hv)) == NULL)
- continue;
- if (refcount_incr(&search->refcount) != 2) {
- refcount_decr(&search->refcount);
- /* Old rare bug could cause a refcount leak. We haven‘t seen
- * it in years, but we leave this code in to prevent failures
- * just in case
- 没看懂这里的意思.....
- */
- if (settings.tail_repair_time &&
- search->time + settings.tail_repair_time < current_time) {
- itemstats[id].tailrepairs++;
- search->refcount = 1;
- do_item_unlink_nolock(search, hv);
- }
- if (hold_lock)
- item_trylock_unlock(hold_lock);
- continue;
- }
- /* Expired or flushed */
- //超时了...
- if ((search->exptime != 0 && search->exptime < current_time)
- || (search->time <= oldest_live && oldest_live <= current_time)) {
- itemstats[id].reclaimed++;
- if ((search->it_flags & ITEM_FETCHED) == 0) {
- itemstats[id].expired_unfetched++;
- }
- it = search; //拿下空间
- slabs_adjust_mem_requested(it->slabs_clsid, ITEM_ntotal(it), ntotal); //更新统计数据
- /**
- 什么是link,在这简单说下,就是把item加到哈希表和LRU链表的过程。详见items::do_item_link函数 这里把item旧的link取消掉,当前函数do_item_alloc的工作只是拿空间,而往后可知道拿到item空间后会对这块item进行“link”工作,而这里这块item空间是旧的item超时然后拿来用的,所以先把它unlink掉
- */
- do_item_unlink_nolock(it, hv);
- /* Initialize the item block: */
- it->slabs_clsid = 0;
- } else if ((it = slabs_alloc(ntotal, id)) == NULL) {/*如果没有找到超时的item,则
- 调用slabs_alloc分配空间,详见slabs_alloc
- 如果slabs_alloc分配空间失败,即返回NULL,则往下走,下面的代码是
- 把LRU列表最后一个给淘汰,即使item没有过期。
- 这里一般是可用内存已经满了,需要按LRU进行淘汰的时候。
- */
- tried_alloc = 1; //标记一下,表示有进入此分支,表示有尝试过调用slabs_alloc去分配新的空间。
- //记下被淘汰item的信息,像我们使用memcached经常会查看的evicted_time就是在这里赋值啦!
- if (settings.evict_to_free == 0) {
- itemstats[id].outofmemory++;
- } else {
- itemstats[id].evicted++;
- itemstats[id].evicted_time = current_time - search->time; //被淘汰的item距离上次使用多长时间了
- if (search->exptime != 0)
- itemstats[id].evicted_nonzero++;
- if ((search->it_flags & ITEM_FETCHED) == 0) {
- itemstats[id].evicted_unfetched++;
- }
- it = search;
- slabs_adjust_mem_requested(it->slabs_clsid, ITEM_ntotal(it), ntotal);//更新统计数据
- do_item_unlink_nolock(it, hv); //从哈希表和LRU链表中删掉
- /* Initialize the item block: */
- it->slabs_clsid = 0;
- /*
- 在这也可以先略过下面的逻辑
- 如果当前slabclass有item被淘汰掉了,说明可用内存都满了,再也没有
- slab可分配了,
- 而如果 slab_automove=2 (默认是1),这样会导致angry模式,
- 就是只要分配失败了,就马上进行slab重分配:把别的slabclass空间牺牲
- 掉一些,马上给现在的slabclass分配空间,而不会合理地根据淘汰统计
- 数据来分析要怎么重分配(slab_automove = 1则会)。
- */
- if (settings.slab_automove == 2)
- slabs_reassign(-1, id);
- }
- }
- refcount_decr(&search->refcount);
- /* If hash values were equal, we don‘t grab a second lock */
- if (hold_lock)
- item_trylock_unlock(hold_lock);
- break;
- }
- /**
- 如果上面的for循环里面没有找到空间,并且没有进入过else if ((it = slabs_alloc(ntotal, id)) == NULL)这个分支没有 尝试调slabs_alloc分配空间(有这种可能性),那么,下面这行代码就是再尝试分配。
- 你会觉得上面那个循环写得特纠结,逻辑不清,估计你也看醉了。其实整个分配原则是这样子:
- 1)先从LRU链表找下看看有没有恰好过期的空间,有的话就用这个空间。
- 2)如果没有过期的空间,就分配新的空间。
- 3)如果分配新的空间失败,那么往往是内存都用光了,则从LRU链表中把最旧的即使没过期的item淘汰掉,空间分给新的item用。
- 问题是:这个从“LRU链表找到的item”是一个不确定的东西,有可能这个item数据异常,有可能这个item由于与别的item共用锁的桶号
- 这个桶被锁住了,所以总之各种原因这个item此刻不一定可用,因此用了一个循环尝试找几次(上面是5)。
- 所以逻辑是:
- 1)我先找5次LRU看看有没有可用的过期的item,有就用它。(for循环5次)
- 2)5次没有找到可用的过期的item,那我分配新的。
- 3)分配新的不成功,那我再找5次看看有没有可用的虽然没过期的item,淘汰它,把空间给新的item用。(for循环5次)
- 那么这里有个问题,如果代码要写得逻辑清晰一点,我得写两个for循环,一个是为了第2)步前“找可用的过期的”item,
- 一个是第2)步不成功后“找可用的用来淘汰的”空间。而且有重复的逻辑“找到可用的”,所以memcached作者就合在一起了,
- 然后只能把第2)步也塞到for循环里面,确实挺尴尬的。。。估计memcached作者也写得很纠结。。。
- 所以就很有可能出现5次都没找到可用的空间,都没进入过elseif那个分支就被continue掉了,为了记下有没有进过elseif
- 分支就挫挫地用一个tried_alloc变量来做记号。。
- */
- if (!tried_alloc && (tries == 0 || search == NULL))
- it = slabs_alloc(ntotal, id);
- if (it == NULL) {
- itemstats[id].outofmemory++;
- mutex_unlock(&cache_lock);
- return NULL; //没错!会有分配新空间不成功,而且尝试5次淘汰旧的item也没成功的时候,只能返回NULL。。
- }
- assert(it->slabs_clsid == 0);
- assert(it != heads[id]);
- //来到这里,说明item分配成功,下面主要是一些初始化工作。
- /* Item initialization can happen outside of the lock; the item‘s already
- * been removed from the slab LRU.
- */
- it->refcount = 1; /* the caller will have a reference */
- mutex_unlock(&cache_lock);
- it->next = it->prev = it->h_next = 0;
- it->slabs_clsid = id;
- DEBUG_REFCNT(it, ‘*‘);
- it->it_flags = settings.use_cas ? ITEM_CAS : 0;
- it->nkey = nkey;
- it->nbytes = nbytes;
- memcpy(ITEM_key(it), key, nkey);
- it->exptime = exptime;
- memcpy(ITEM_suffix(it), suffix, (size_t)nsuffix);
- it->nsuffix = nsuffix;
- return it;
- }
上面的代码基本的中心逻辑就是:
1)先从LRU链表找下看看有没有恰好过期的空间,有的话就用这个空间。
2)如果没有过期的空间,就分配新的空间。
3)如果分配新的空间失败,那么往往是内存都用光了,则从LRU链表中把最旧的即使没过期的item淘汰掉,空间分给新的item用。
而第2)步分配的新空间,通过slabs_alloc(ntotal, id)函数来完成,我们再来解剖一下这个函数的实现:
- void *slabs_alloc(size_t size, unsigned int id) {
- void *ret;
- pthread_mutex_lock(&slabs_lock);
- ret = do_slabs_alloc(size, id);
- pthread_mutex_unlock(&slabs_lock);
- return ret;
- }
- /**
- 根据item大小和slabsclass分配空间
- */
- static void *do_slabs_alloc(const size_t size, unsigned int id) {
- slabclass_t *p;
- void *ret = NULL;
- item *it = NULL;
- if (id < POWER_SMALLEST || id > power_largest) { //默认最大是200,最小是1
- MEMCACHED_SLABS_ALLOCATE_FAILED(size, 0);
- return NULL;
- }
- p = &slabclass[id]; //slabclass是一个全局变量,是各个slabclass对象数组,在这取得当前id对应的slabclass
- assert(p->sl_curr == 0 || ((item *)p->slots)->slabs_clsid == 0);
- /*
- 下面这个if的逻辑相当于:
- 如果p->sl_curr==0,即slots链表中没有空闲的空间,则do_slabs_newslab分配新slab
- 如果p->sl_curr==0,且do_slabs_newslab分配新slab失败,则进入if,ret = NULL,否则进入下面的elseif
- */
- if (! (p->sl_curr != 0 || do_slabs_newslab(id) != 0)) {
- /* We don‘t have more memory available */
- ret = NULL;
- } else if (p->sl_curr != 0) { //如果进入此分支是因为slots链表中还有空闲的空间
- /* return off our freelist */
- //把空闲的item分配出去
- it = (item *)p->slots;
- p->slots = it->next;
- if (it->next) it->next->prev = 0;
- p->sl_curr--;
- ret = (void *)it;
- }
- if (ret) {
- p->requested += size; //分配成功,记下已分配的字节数
- MEMCACHED_SLABS_ALLOCATE(size, id, p->size, ret);
- } else {
- MEMCACHED_SLABS_ALLOCATE_FAILED(size, id);
- }
- return ret;
- }
do_slabs_alloc函数做的事情就是先从slot中找,没有可用的item的话就调用do_slabs_newslab函数开辟新的slab,当然如果开辟失败就返回NULL告诉上层说,已经满了,没新slab可以开了。我们进去看看do_slabs_newslab是怎么实现的:
- /**
- 为slabclass[id]分配新的slab,仅当当前的slabclass中slots没有空闲的空间才调用
- 此函数分配新的slab
- */
- static int do_slabs_newslab(const unsigned int id) {
- slabclass_t *p = &slabclass[id];
- int len = settings.slab_reassign ? settings.item_size_max
- : p->size * p->perslab; //先判断是否开启了自定义slab大小,如果没有就按默认的,即p->size*p->perslab(<=1M)
- char *ptr;
- /**
- 下面if的逻辑是:
- 如果内存超出了限制,分配失败进入if,返回0
- 否则调用grow_slab_list检查是否要增大slab_list的大小
- 如果在grow_slab_list返回失败,则不继续分配空间,进入if,返回0
- 否则分配空间memory_allocate,如果分配失败,同样进入if,返回0;
- */
- if ((mem_limit && mem_malloced + len > mem_limit && p->slabs > 0) ||
- (grow_slab_list(id) == 0) ||
- ((ptr = memory_allocate((size_t)len)) == 0)) {
- MEMCACHED_SLABS_SLABCLASS_ALLOCATE_FAILED(id);
- return 0;
- }
- memset(ptr, 0, (size_t)len); //清干净内存空间
- split_slab_page_into_freelist(ptr, id); //把新申请的slab放到slots中去
- p->slab_list[p->slabs++] = ptr; //把新的slab加到slab_list数组中
- mem_malloced += len; //记下已分配的空间大小
- MEMCACHED_SLABS_SLABCLASS_ALLOCATE(id);
- return 1;
- }
- //附上grow_slab_list函数的说明
- static int grow_slab_list (const unsigned int id) {
- slabclass_t *p = &slabclass[id];
- /**
- p->slab_list是一个空间大小固定的数组,是数组!而list_size是这个数组分配的空间。
- p->slabs代表已经分配出去的slabs数
- 而p->list_size代表可以用多少个slabs数
- 所以当slabs等于list_size的时候代表这个slab_list已经满了,得增大空间。
- */
- if (p->slabs == p->list_size) {
- size_t new_size = (p->list_size != 0) ? p->list_size * 2 : 16;
- void *new_list = realloc(p->slab_list, new_size * sizeof(void *)); //
- if (new_list == 0) return 0;
- p->list_size = new_size;
- p->slab_list = new_list;
- }
- return 1;
- }
- /**
- 分配内存空间
- */
- static void *memory_allocate(size_t size) {
- void *ret;
- /**
- 有两种分配策略
- 1)如果是开启了内存预分配策略,则只需要从预分配好的内存块那里割一块出来。即进入下面的else分支
- 2)如果没有开启预分配,则malloc分配内存
- 关于预分配详见 slabs_init
- */
- if (mem_base == NULL) {
- ret = malloc(size); //在这里终于见到我们熟悉的malloc函数!!
- } else {
- //省略预分配逻辑
- }
- return ret;
- }
do_slabs_newslab最终会调用我们熟悉的malloc函数申请slab内存空间,申请成功后执行split_slab_page_into_freelist函数把slab割成一块块chunk,并把chunk初始化成free item并加到slot中:
- /**
- 把整个slab打散成一个个(也叫chunk)放到相应的slots链表中
- */
- static void split_slab_page_into_freelist(char *ptr, const unsigned int id) {
- slabclass_t *p = &slabclass[id];
- int x;
- for (x = 0; x < p->perslab; x++) {
- do_slabs_free(ptr, 0, id); //这个函数主要作用是让当前item空间可用,即加到slots链表中。
- ptr += p->size;
- }
- }
- /**
- 这个函数的命名虽然叫do_slabs_free,听上去好像是释放空间,其实质是把空间变成可用。
- 怎样的空间才算可用?就是加到当前slabclass的slots链表中而已。
- 所以新申请的slab也会调用这个函数,让整个slab变为可用。
- ps: 这个命名应该有历史原因,因为以前的memcached版本slots链表保存的是回收的item空间,而
- 现在保存的是所有可用的item空间。
- */
- static void do_slabs_free(void *ptr, const size_t size, unsigned int id) {
- slabclass_t *p;
- item *it;
- assert(((item *)ptr)->slabs_clsid == 0);
- assert(id >= POWER_SMALLEST && id <= power_largest);
- if (id < POWER_SMALLEST || id > power_largest)
- return;
- MEMCACHED_SLABS_FREE(size, id, ptr);
- p = &slabclass[id];
- it = (item *)ptr;
- it->it_flags |= ITEM_SLABBED; //把item标记为slabbed状态
- it->prev = 0;
- it->next = p->slots; //插入到slots链表中
- if (it->next) it->next->prev = it;
- p->slots = it;
- p->sl_curr++; //空闲item数加1
- p->requested -= size;
- return;
- }
至此,我们已经把“分配”item空间的工作说完了,但是分配完item空间之后实质还有一些”收尾工作”,不知道你是否还记得在上一篇状态机中也提到,我们的一个SET命令分成两部分,一部分是“命令”行,第二部分是“数据”行,而上面所提到的item空间分配工作都是完成“命令”行的工作,回忆一下,状态机在完成“SET命令”第二部分行为(即把value塞到了我们分配的item的data字段的value位置)的时候,收尾的时候会来到:
- static void complete_nread_ascii(conn *c) {
- //。。
- ret = store_item(it, comm, c);
- //。。
- }
其实这个store_item会对这个item进行一些收尾工作:
- enum store_item_type store_item(item *item, int comm, conn* c) {
- enum store_item_type ret;
- uint32_t hv;
- hv = hash(ITEM_key(item), item->nkey); //锁住item
- item_lock(hv);
- ret = do_store_item(item, comm, c, hv);
- item_unlock(hv);
- return ret;
- }
- enum store_item_type do_store_item(item *it, int comm, conn *c, const uint32_t hv) {
- //。。。
- do_item_link(it, hv);
- //。。。
- }
上面的do_item_link函数引出了一个叫“link”,链接的概念,这个link的意思就是主要包括下面三部分:
a)改变一些统计数据
b)把item加到哈希表
c)把item插入到相应的slabclass lru链表中
- int do_item_link(item *it, const uint32_t hv) {
- MEMCACHED_ITEM_LINK(ITEM_key(it), it->nkey, it->nbytes);
- assert((it->it_flags & (ITEM_LINKED|ITEM_SLABBED)) == 0);
- mutex_lock(&cache_lock);
- it->it_flags |= ITEM_LINKED;
- it->time = current_time;
- STATS_LOCK();
- stats.curr_bytes += ITEM_ntotal(it);
- stats.curr_items += 1;
- stats.total_items += 1;
- STATS_UNLOCK();
- /* Allocate a new CAS ID on link. */
- ITEM_set_cas(it, (settings.use_cas) ? get_cas_id() : 0);
- assoc_insert(it, hv); //插入哈希表
- item_link_q(it); //加入LRU链表
- refcount_incr(&it->refcount);
- mutex_unlock(&cache_lock);
- return 1;
- }
link收尾工作做完,我们的分配内存工作总算完成了。
转载请注明:Calix » Memcached源码分析之内存管理
以上是关于FFmpeg源码走读之内存管理模型的主要内容,如果未能解决你的问题,请参考以下文章