DPDK mempool

Posted mysky007

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了DPDK mempool相关的知识,希望对你有一定的参考价值。

Mempool 库

内存池是固定大小的对象分配器。 在DPDK中,它由名称唯一标识,并且使用mempool操作来存储空闲对象。 默认的mempool操作是基于ring的。它提供了一些可选的服务,如per-core缓存和对齐帮助,以确保对象被填充, 方便将他们均匀扩展到DRAM或DDR3通道上。

这个库由 Mbuf Library 使用。

1.1. Cookies

在调试模式(CONFIG_RTE_LIBRTE_MEMPOOL_DEBUG is enabled)中,将在块的开头和结尾处添加cookies。 分配的对象包含保护字段,以帮助调试缓冲区溢出。

1.2. Stats

在调试模式(CONFIG_RTE_LIBRTE_MEMPOOL_DEBUG is enabled)中,从池中获取/释放的统计信息存放在mempool结构体中。 统计信息是per-lcore的,避免并发访问统计计数器。

1.3. 内存对齐约束

根据硬件内存配置,可以通过在对象之间添加特定的填充来大大提高性能。 其目的是确保每个对象开始于不同的通道上,并在内存中排列,以便实现所有通道负载均衡。

特别是当进行L3转发或流分类时,报文缓冲对齐尤为重要。此时仅访问报文的前64B,因此可以通过在不同的信道之间扩展对象的起始地址来提升性能。

DIMM上的rank数目是可访问DIMM完整数据位宽的独立DIMM集合的数量。 由于他们共享相同的路径,因此rank不能被同事访问。 DIMM上的DRAM芯片的物理布局无需与rank数目相关。

当运行app时,EAL命令行选项提供了添加内存通道和rank数目的能力。

Note

命令行必须始终指定处理器的内存通道数目。

不同DIMM架构的对齐示例如图所示 Fig. 5.1Fig. 5.2

技术图片

Fig. 5.1 Two Channels and Quad-ranked DIMM Example

在这种情况下,假设吧平稳是64B块就不成立了。

Intel® 5520芯片组有三个通道,因此,在大多数情况下,对象之间不需要填充。(除了大小为n x 3 x 64B的块)

技术图片

Fig. 5.2 Three Channels and Two Dual-ranked DIMM Example

当创建一个新池时,用户可以指定使用此功能。

1.4. 本地缓存

在CPU使用率方面,由于每个访问需要compare-and-set (CAS)操作,所以多核访问内存池的空闲缓冲区成本比较高。 为了避免对内存池ring的访问请求太多,内存池分配器可以维护per-core cache,并通过实际内存池中具有较少锁定的缓存对内存池ring执行批量请求。 通过这种方式,每个core都可以访问自己空闲对象的缓存(带锁), 只有当缓存填充时,内核才需要将某些空闲对象重新放回到缓冲池ring,或者当缓存空时,从缓冲池中获取更多对象。

虽然这意味着一些buffer可能在某些core的缓存上处于空闲状态,但是core可以无锁访问其自己的缓存提供了性能上的提升。

缓存由一个小型的per-core表及其长度组成。可以在创建池时启用/禁用此缓存。

缓存大小的最大值是静态配置,并在编译时定义的(CONFIG_RTE_MEMPOOL_CACHE_MAX_SIZE)。

Fig. 5.3 显示了一个缓存操作。

技术图片

Fig. 5.3 A mempool in Memory with its Associated Ring

不同于per-lcore内部缓存,应用程序可以通过接口 rte_mempool_cache_create()rte_mempool_cache_free()rte_mempool_cache_flush() 创建和管理外部缓存。 这些用户拥有的缓存可以被显式传递给 rte_mempool_generic_put()rte_mempool_generic_get() 。 接口 rte_mempool_default_cache() 返回默认内部缓存。 与默认缓存相反,用户拥有的高速缓存可以由非EAL线程使用。

1.5. Mempool 句柄

这允许外部存储子系统,如外部硬件存储管理系统和软件存储管理与DPDK一起使用。

mempool 操作包括两方面:

  • 添加新的mempool操作代码。这是通过添加mempool ops代码,并使用 MEMPOOL_REGISTER_OPS 宏来实现的。
  • 使用新的API调用 rte_mempool_create_empty()rte_mempool_set_ops_byname() 用于创建新的mempool,并制定用户要使用的操作。

在同一个应用程序中可能会使用几个不同的mempool处理。 可以使用 rte_mempool_create_empty() 创建一个新的mempool,然后用 rte_mempool_set_ops_byname() 将mempool指向相关的 mempool处理回调(ops)结构体。

传统的应用程序可能会继续使用旧的 rte_mempool_create() API调用,它默认使用基于ring的mempool处理。 这些应用程序需要修改为新的mempool处理。

对于使用 rte_pktmbuf_create() 的应用程序,有一个配置设置(RTE_MBUF_DEFAULT_MEMPOOL_OPS),允许应用程序使用另一个mempool处理。

1.6. Mempool

DPDK以两种方式对外提供内存管理方法,一个是rte_mempool,主要用于网卡数据包的收发;一个是rte_malloc,主要为应用程序提供内 存使用接口。本文讨论rte_mempool。rte_mempool由函数rte_mempool_create()负责创建,从 rte_config.mem_config->free_memseg[]中取出合适大小的内存,放到 rte_config.mem_config->memzone[]中。

rte_mempool结构体:

 1 /**
 2  * The RTE mempool structure.
 3  */
 4 struct rte_mempool 
 5     /*
 6      * Note: this field kept the RTE_MEMZONE_NAMESIZE size due to ABI
 7      * compatibility requirements, it could be changed to
 8      * RTE_MEMPOOL_NAMESIZE next time the ABI changes
 9      */
10     char name[RTE_MEMZONE_NAMESIZE]; /**< Name of mempool. */
11     RTE_STD_C11
12     union 
13         void *pool_data;         /**< Ring or pool to store objects. */
14         uint64_t pool_id;        /**< External mempool identifier. */
15     ;
16     void *pool_config;               /**< optional args for ops alloc. */
17     const struct rte_memzone *mz;    /**< Memzone where pool is alloc‘d. */
18     unsigned int flags;              /**< Flags of the mempool. */
19     int socket_id;                   /**< Socket id passed at create. */
20     uint32_t size;                   /**< Max size of the mempool. */
21     uint32_t cache_size;
22     /**< Size of per-lcore default local cache. */
23 
24     uint32_t elt_size;               /**< Size of an element. */
25     uint32_t header_size;            /**< Size of header (before elt). */
26     uint32_t trailer_size;           /**< Size of trailer (after elt). */
27 
28     unsigned private_data_size;      /**< Size of private data. */
29     /**
30      * Index into rte_mempool_ops_table array of mempool ops
31      * structs, which contain callback function pointers.
32      * We‘re using an index here rather than pointers to the callbacks
33      * to facilitate any secondary processes that may want to use
34      * this mempool.
35      */
36     int32_t ops_index;
37 
38     struct rte_mempool_cache *local_cache; /**< Per-lcore local cache */
39 
40     uint32_t populated_size;         /**< Number of populated objects. */
41     struct rte_mempool_objhdr_list elt_list; /**< List of objects in pool */
42     uint32_t nb_mem_chunks;          /**< Number of memory chunks */
43     struct rte_mempool_memhdr_list mem_list; /**< List of memory chunks */
44 
45 #ifdef RTE_LIBRTE_MEMPOOL_DEBUG
46     /** Per-lcore statistics. */
47     struct rte_mempool_debug_stats stats[RTE_MAX_LCORE];
48 #endif
49   __rte_cache_aligned;

 

以上是关于DPDK mempool的主要内容,如果未能解决你的问题,请参考以下文章

DPDK测试用例(sample)编译

使用介子和忍者安装 DPDK

dpdk专题

DPDK网卡绑定

dpdk的安装

DPDK — OvS-DPDK