如何在 Linux 中分配大的连续内存区域
Posted
技术标签:
【中文标题】如何在 Linux 中分配大的连续内存区域【英文标题】:How to allocate large contiguous, memory regions in Linux 【发布时间】:2019-10-23 18:36:45 【问题描述】:是的,我最终会将它用于 DMA,但暂时先将一致性放在一边。我有 64 位 BAR 寄存器,因此,AFAIK,所有 RAM(例如高于 4G)都可用于 DMA。
我正在寻找大约 64MB 的连续 RAM。是的,很多。
Ubuntu 16 和 18 具有 CONFIG_CMA=y
但 CONFIG_DMA_CMA
未在内核编译时设置。
我注意到,如果两者都设置了(在内核构建时),我可以简单地调用 dma_alloc_coherent
,但是,出于逻辑原因,重新编译内核是不可取的。
这些机器将始终具有至少 32GB 的 RAM,不运行任何 RAM 密集型的东西,并且内核模块将在启动后不久加载,然后 RAM 变得明显碎片化,并且,AFAIK,没有其他东西在使用 CMA。
我已设置内核参数 CMA=1G。 (并试过256M和512M)
# dmesg | grep cma
[ 0.000000] Command line: BOOT_IMAGE=/boot/vmlinuz-4.4.170 root=UUID=2b25933c-e10c-4833-b5b2-92e9d3a33fec ro cma=1G
[ 0.000000] Kernel command line: BOOT_IMAGE=/boot/vmlinuz-4.4.170 root=UUID=2b25933c-e10c-4833-b5b2-92e9d3a33fec ro cma=1G
[ 0.000000] Memory: 65612056K/67073924K available (8604K kernel code, 1332K rwdata, 3972K rodata, 1484K init, 1316K bss, 1461868K reserved, 0K cma-reserved)
我试过alloc_pages(GFP_KERNEL | __GFP_HIGHMEM, order)
,不开心。
最后是实际问题:如何从 CMA 获得大的连续块?我在网上找到的所有内容都建议使用dma_alloc_coherent
,但我知道这只适用于CONFIG_CMA=y
和CONFIG_DMA_CMA=yes
。
模块源,tim.c
#include <linux/module.h> /* Needed by all modules */
#include <linux/kernel.h> /* Needed for KERN_INFO */
#include <linux/init.h>
#include <linux/mm.h>
#include <linux/gfp.h>
unsigned long big;
const int order = 15;
static int __init tim_init(void)
printk(KERN_INFO "Hello Tim!\n");
big = __get_free_pages(GFP_KERNEL | __GFP_HIGHMEM, order);
printk(KERN_NOTICE "big = %lx\n", big);
if (!big)
return -EIO; // AT&T
return 0; // success
static void __exit tim_exit(void)
free_pages(big, order);
printk(KERN_INFO "Tim says, Goodbye world\n");
module_init(tim_init);
module_exit(tim_exit);
MODULE_LICENSE("GPL");
插入模块产生...
# insmod tim.ko
insmod: ERROR: could not insert module tim.ko: Input/output error
# dmesg | tail -n 33
[ 176.137053] Hello Tim!
[ 176.137056] ------------[ cut here ]------------
[ 176.137062] WARNING: CPU: 4 PID: 2829 at mm/page_alloc.c:3198 __alloc_pages_nodemask+0xd14/0xe00()
[ 176.137063] Modules linked in: tim(OE+) xt_CHECKSUM iptable_mangle ipt_MASQUERADE nf_nat_masquerade_ipv4 iptable_nat nf_nat_ipv4 nf_nat nf_conntrack_ipv4 nf_defrag_ipv4 xt_conntrack nf_conntrack ipt_REJECT nf_reject_ipv4 xt_tcpudp bridge stp llc ebtable_filter ebtables ip6table_filter ip6_tables iptable_filter ip_tables x_tables configfs vxlan ip6_udp_tunnel udp_tunnel uio pf_ring(OE) x86_pkg_temp_thermal intel_powerclamp coretemp kvm_intel kvm mei_me mei irqbypass sb_edac ioatdma edac_core shpchp serio_raw input_leds lpc_ich dca acpi_pad 8250_fintek mac_hid ib_iser rdma_cm iw_cm ib_cm ib_sa ib_mad ib_core ib_addr iscsi_tcp libiscsi_tcp libiscsi scsi_transport_iscsi autofs4 btrfs raid10 raid456 async_raid6_recov async_memcpy async_pq async_xor async_tx xor raid6_pq libcrc32c raid0 multipath linear
[ 176.137094] hid_generic usbhid crct10dif_pclmul crc32_pclmul ghash_clmulni_intel e1000e aesni_intel raid1 aes_x86_64 isci lrw libsas ahci gf128mul ptp glue_helper ablk_helper cryptd psmouse hid libahci scsi_transport_sas pps_core wmi fjes
[ 176.137105] CPU: 4 PID: 2829 Comm: insmod Tainted: G OE 4.4.170 #1
[ 176.137106] Hardware name: Supermicro X9SRL-F/X9SRL-F, Bios 3.3 11/13/2018
[ 176.137108] 0000000000000286 8ba89d23429d5749 ffff88100f5cba90 ffffffff8140a061
[ 176.137110] 0000000000000000 ffffffff81cd89dd ffff88100f5cbac8 ffffffff810852d2
[ 176.137112] ffffffff821da620 0000000000000000 000000000000000f 000000000000000f
[ 176.137113] Call Trace:
[ 176.137118] [<ffffffff8140a061>] dump_stack+0x63/0x82
[ 176.137121] [<ffffffff810852d2>] warn_slowpath_common+0x82/0xc0
[ 176.137123] [<ffffffff8108541a>] warn_slowpath_null+0x1a/0x20
[ 176.137125] [<ffffffff811a2504>] __alloc_pages_nodemask+0xd14/0xe00
[ 176.137128] [<ffffffff810ddaef>] ? msg_print_text+0xdf/0x1a0
[ 176.137132] [<ffffffff8117bc3e>] ? irq_work_queue+0x8e/0xa0
[ 176.137133] [<ffffffff810de04f>] ? console_unlock+0x20f/0x550
[ 176.137137] [<ffffffff811edbdc>] alloc_pages_current+0x8c/0x110
[ 176.137139] [<ffffffffc0024000>] ? 0xffffffffc0024000
[ 176.137141] [<ffffffff8119ca2e>] __get_free_pages+0xe/0x40
[ 176.137143] [<ffffffffc0024020>] tim_init+0x20/0x1000 [tim]
[ 176.137146] [<ffffffff81002125>] do_one_initcall+0xb5/0x200
[ 176.137149] [<ffffffff811f90c5>] ? kmem_cache_alloc_trace+0x185/0x1f0
[ 176.137151] [<ffffffff81196eb5>] do_init_module+0x5f/0x1cf
[ 176.137154] [<ffffffff81111b05>] load_module+0x22e5/0x2960
[ 176.137156] [<ffffffff8110e080>] ? __symbol_put+0x60/0x60
[ 176.137159] [<ffffffff81221710>] ? kernel_read+0x50/0x80
[ 176.137161] [<ffffffff811123c4>] SYSC_finit_module+0xb4/0xe0
[ 176.137163] [<ffffffff8111240e>] SyS_finit_module+0xe/0x10
[ 176.137167] [<ffffffff8186179b>] entry_SYSCALL_64_fastpath+0x22/0xcb
[ 176.137169] ---[ end trace 6aa0b905b8418c7b ]---
[ 176.137170] big = 0
奇怪的是,再次尝试会产生...
# insmod tim.ko
insmod: ERROR: could not insert module tim.ko: Input/output error
...and dmesg just shows:
[ 302.068396] Hello Tim!
[ 302.068398] big = 0
为什么没有堆栈转储第二次(和后续)尝试?
【问题讨论】:
我试图避免在 qemu/KVM 中运行内核并遵循 alloc_pages 调用并使用 gdb 寻找线索。 你试过 __get_dma_pages 或 __get_free_pages 吗?(oreilly.com/library/view/linux-device-drivers/0596000081/…) 几年前,我使用 __get_free_pages 构建了一个内核模块,为一个项目分配大块内存。 刚刚尝试 __get_free_pages(GFP_KERNEL | __GFP_HIGHMEM, 15) 超过 10 个的订单失败。为了清楚起见,我对我的原始帖子进行了大量编辑并添加了源代码和 dmesg。我有一种令人毛骨悚然的怀疑,我错过了一些愚蠢的东西。 【参考方案1】:简短的版本是__GFP_DIRECT_RECLAIM
(也由__GFP_RECLAIM
提供)是必要的,因为dma_alloc_contiguous
最终会被调用,它会通过调用gfpflags_allow_blocking
来检查阻塞是否正常。我使用了通常的GFP_KERNEL
,它提供了__GFP_RECLAIM | __GFP_IO | __GFP_FS
。但在此之前,必须用DMA_BIT_MASK(64)
调用dma_set_mask_and_coherent(&pdev->dev, DMA_BIT_MASK(64))
not DMA_BIT_MASK(32)
。
err = dma_set_mask_and_coherent(&pdev->dev, DMA_BIT_MASK(64));
if (err)
printk(KERN_INFO "[%s:probe] dma_set_mask returned: %d\n", DRIVER_NAME, err);
return -EIO;
vaddr = dma_alloc_coherent(&pdev->dev, dbsize, paddr, GFP_KERNEL);
if (!vaddr)
printk(KERN_ALERT "[%s:probe] failed to allocate coherent buffer\n", DRIVER_NAME);
return -EIO;
iowrite32(paddr, ctx->bar0_base_addr + 0x140); // tell card where to DMA from
在 Ubuntu 16.04 和 18.04 中使用 CMA 分配不合理的大 DMA 区域:
重建内核
-
使用
uname -r
确定您当前的内核版本
发出apt install linux-source-$(uname -r)
获取内核源代码
将/boot/config-$(uname -r)
复制到/usr/src/linux-source-$(uname -r)/.config
编辑.config
-
未设置定位
CONFIG_DMA_CMA
更改为CONFIG_DMA_CMA=y
make -j[2 × # of cores]
make -j[2 × # of cores] modules
make install
配置 CMA 以保留 RAM
-
编辑
/etc/defualt/grub
-
定位
GRUB_CMDLINE_LINUX=""
更改为GRUB_CMDLINE_LINUX="cma=33G"
使用您想要的 CMA 保留 RAM 代替 33G
update-grub
重启
问题 dmesg | grep cma
-
寻找
Memory: 30788784K/67073924K available (14339K kernel code, 2370K rwdata, 4592K rodata, 2696K init, 5044K bss, 1682132K reserved, 34603008K cma-reserved
注意:本例预留33G
更改内核模块(驱动程序)源代码
-
通知内核卡可以寻址64b
在您的探测函数中找到类似
dma_alloc_coherent(…
的行
在此之前的几行您可能会找到dma_set_mask_and_coherent(&pdev->dev, DMA_BIT_MASK(32))
将此更改为dma_set_mask_and_coherent(&pdev->dev, DMA_BIT_MASK(64))
您已通知内核,有问题的卡不限于低内存
dma_alloc_coherent(&pdev->dev, dbsize, paddr, GFP_KERNEL)
dbsize
最多可以指定 32G
重新编译内核模块(驱动程序)并测试
【讨论】:
我可以确认这与宣传的一样有效。非常感谢您抽出宝贵时间回答您自己的问题!以上是关于如何在 Linux 中分配大的连续内存区域的主要内容,如果未能解决你的问题,请参考以下文章
Linux 内核 内存管理物理内存组织结构 ② ( 内存模型 | 平坦内存 | 稀疏内存 | 非连续内存 | 内存管理系统三级结构 | 节点 Node | 区域 Zone | 页 Page )