0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Linux内核的连续内存分配器(CMA)——避免预留大块内存

Linux阅码场 来源:未知 作者:李倩 2018-03-27 11:07 次阅读

这是我2012年上半年写的文章,现在微信公众号再次发表。

在我们使用ARM嵌入式Linux系统的时候,一个头疼的问题是GPU,Camera,HDMI等都需要预留大量连续内存,这部分内存平时不用, 但是一般的做法又必须先预留着。目前,Marek Szyprowski和Michal Nazarewicz实现了一套全新的Contiguous Memory Allocator。通过这套机制,我们可以做到不预留内存,这些内存平时是可用的,只有当需要的时候才被分配给Camera,HDMI等设备。下面分析 它的基本代码流程。

声明连续内存

内核启动过程中arch/arm/mm/init.c中的arm_memblock_init()会调用dma_contiguous_reserve(min(arm_dma_limit, arm_lowmem_limit));

该函数位于:drivers/base/dma-contiguous.c

其中的size_bytes定义为:

static const unsigned long size_bytes = CMA_SIZE_MBYTES * SZ_1M; 默认情况下,CMA_SIZE_MBYTES会被定义为16MB,来源于CONFIG_CMA_SIZE_MBYTES=16->

由此可见,连续内存区域也是在内核启动的早期,通过__memblock_alloc_base()拿到的。

另外:

drivers/base/dma-contiguous.c里面的core_initcall()会导致cma_init_reserved_areas()被调用:

cma_create_area()会调用cma_activate_area(),cma_activate_area()函数则会针对每个page调用:

init_cma_reserved_pageblock(pfn_to_page(base_pfn));

这个函数则会通过set_pageblock_migratetype(page, MIGRATE_CMA)将页设置为MIGRATE_CMA类型的:

同时其中调用的__free_pages(page, pageblock_order);最终会调用到__free_one_page(page, zone, order, migratetype);相关的page会被加到MIGRATE_CMA的free_list上面去:

list_add(&page->lru, &zone->free_area[order].free_list[migratetype]);

申请连续内存

申请连续内存仍然使用标准的arch/arm/mm/dma-mapping.c中定义的dma_alloc_coherent()和dma_alloc_writecombine(),这二者会间接调用drivers/base/dma-contiguous.c中的

->

->

int alloc_contig_range(unsigned long start, unsigned long end,

unsigned migratetype)

需要隔离page,隔离page的作用通过代码的注释可以体现:

简单地说,就是把相关的page标记为MIGRATE_ISOLATE,这样buddy系统就不会再使用他们。

接下来调用__alloc_contig_migrate_range()进行页面隔离和迁移:

其中的函数migrate_pages()会完成页面的迁移,迁移过程中通过传入的__alloc_contig_migrate_alloc()申请新的page,并将老的page付给新的page:

其中的unmap_and_move()函数较为关键,它定义在mm/migrate.c中

通过unmap_and_move(),老的page就被迁移过去新的page。

接下来要回收page,回收page的作用是,不至于因为拿了连续的内存后,系统变得内存饥饿:

->

->

释放连续内存

内存释放的时候也比较简单,直接就是:

arch/arm/mm/dma-mapping.c:

将page交还给buddy。

内核内存分配的migratetype

内核内存分配的时候,带的标志是GFP_,但是GFP_可以转化为migratetype:

之后申请内存的时候,会对比迁移类型匹配的free_list:

另外,笔者也编写了一个测试程序,透过它随时测试CMA的功能:

/*

* kernel module helper for testing CMA

*

* Licensed under GPLv2 or later.

*/

#include

#include

#include

#include

#include

#define CMA_NUM 10

static struct device *cma_dev;

static dma_addr_t dma_phys[CMA_NUM];

static void *dma_virt[CMA_NUM];

/* any read request will free coherent memory, eg.

* cat /dev/cma_test

*/

static ssize_t

cma_test_read(struct file *file, char __user *buf, size_t count, loff_t *ppos)

{

int i;

for (i = 0; i < CMA_NUM; i++) {  

if (dma_virt[i]) {

dma_free_coherent(cma_dev, (i + 1) * SZ_1M, dma_virt[i], dma_phys[i]);

_dev_info(cma_dev, "free virt: %p phys: %p\n", dma_virt[i], (void *)dma_phys[i]);

dma_virt[i] = NULL;

break;

}

}

return 0;

}

/*

* any write request will alloc coherent memory, eg.

* echo 0 > /dev/cma_test

*/

static ssize_t

cma_test_write(struct file *file, const char __user *buf, size_t count, loff_t *ppos)

{

int i;

int ret;

for (i = 0; i < CMA_NUM; i++) {  

if (!dma_virt[i]) {

dma_virt[i] = dma_alloc_coherent(cma_dev, (i + 1) * SZ_1M, &dma_phys[i], GFP_KERNEL);

if (dma_virt[i]) {

void *p;

/* touch every page in the allocated memory */

for (p = dma_virt[i]; p <  dma_virt[i] + (i + 1) * SZ_1M; p += PAGE_SIZE)  

*(u32 *)p = 0;

_dev_info(cma_dev, "alloc virt: %p phys: %p\n", dma_virt[i], (void *)dma_phys[i]);

} else {

dev_err(cma_dev, "no mem in CMA area\n");

ret = -ENOMEM;

}

break;

}

}

return count;

}

static const struct file_operations cma_test_fops = {

.owner = THIS_MODULE,

.read = cma_test_read,

.write = cma_test_write,

};

static struct miscdevice cma_test_misc = {

.name = "cma_test",

.fops = &cma_test_fops,

};

static int __init cma_test_init(void)

{

int ret = 0;

ret = misc_register(&cma_test_misc);

if (unlikely(ret)) {

pr_err("failed to register cma test misc device!\n");

return ret;

}

cma_dev = cma_test_misc.this_device;

cma_dev->coherent_dma_mask = ~0;

_dev_info(cma_dev, "registered.\n");

return ret;

}

module_init(cma_test_init);

static void __exit cma_test_exit(void)

{

misc_deregister(&cma_test_misc);

}

module_exit(cma_test_exit);

MODULE_LICENSE("GPL");

MODULE_AUTHOR("Barry Song <21cnbao@gmail.com>");

MODULE_DESCRIPTION("kernel module to help the test of CMA");

MODULE_ALIAS("CMA test");

申请内存:

#echo0>/dev/cma_test

释放内存:

#cat/dev/cma_test

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Linux
    +关注

    关注

    87

    文章

    10988

    浏览量

    206725
  • 分配器
    +关注

    关注

    0

    文章

    176

    浏览量

    25290

原文标题:宋宝华:Linux内核的连续内存分配器(CMA)——避免预留大块内存

文章出处:【微信号:LinuxDev,微信公众号:Linux阅码场】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Linux内核内存管理之ZONE内存分配器

    内核中使用ZONE分配器满足内存分配请求。该分配器必须具有足够的空闲页帧,以便满足各种内存大小请
    的头像 发表于 02-21 09:29 413次阅读

    Linux内核内存管理之内核连续物理内存分配

    的主要优点是避免了外部碎片,而缺点是需要修改内核页表。显然,非连续内存区域的大小必须是4096的倍数。Linux使用非
    的头像 发表于 02-23 09:44 375次阅读
    <b class='flag-5'>Linux</b><b class='flag-5'>内核</b><b class='flag-5'>内存</b>管理之<b class='flag-5'>内核</b>非<b class='flag-5'>连续</b>物理<b class='flag-5'>内存</b><b class='flag-5'>分配</b>

    Linux内存系统: Linux 内存分配算法

    通用对象的初始化,从而避免了为同一目而对一个对象重复进行初始化 8、slab 高速缓存1) 普通高速缓存· slab 分配器所提供的小块连续内存
    发表于 08-24 07:44

    如何去制作一个高效的内存分配器

    高效内存分配机制是什么意思?如何去制作一个高效的内存分配器呢?
    发表于 01-20 06:57

    内存之旅——如何提升CMA利用率?

    内存区域称为 CMA 区域;把 CMA 的上层使用者称为 CMA 业务。)一、为什么需要CMACMA
    发表于 03-22 16:26

    为什么需要CMACMA具体是如何工作的

    CMACMA 全称是 Contiguous Memory Allocator(连续内存分配器)。顾名思义它是一种
    发表于 03-23 11:22

    LINUX内核中的内存是如何进行分配

    size);size:待分配内存的大小,自动按页对齐。默认在动态内存映射区分配分配内存在内核
    发表于 11-04 14:46

    linux内存管理中的SLAB分配器详解

    管理区页框分配器,这里我们简称为页框分配器,在页框分配器中主要是管理物理内存,将物理内存的页框分配
    发表于 05-17 15:01 1925次阅读
    <b class='flag-5'>linux</b><b class='flag-5'>内存</b>管理中的SLAB<b class='flag-5'>分配器</b>详解

    深入剖析SLUB分配器和SLAB分配器的区别

    首先为什么要说slub分配器内核里小内存分配一共有三种,SLAB/SLUB/SLOB,slub分配器是slab
    发表于 05-17 16:05 870次阅读
    深入剖析SLUB<b class='flag-5'>分配器</b>和SLAB<b class='flag-5'>分配器</b>的区别

    Linux内核深度解析》之内存地址空间

    内核空间提供了把页划分成小内存分配的块分配器,提供分配内存的接口 kmalloc()和释放
    的头像 发表于 07-15 14:22 1918次阅读

    bootmem分配器使用的数据结构

    内核初始化的过程中需要分配内存内核提供了临时的引导内存分配器,在页
    的头像 发表于 07-22 11:18 1145次阅读

    Linux之引导内存分配器

    早期使用的引导内存分配器是 bootmem,目前正在使用 memblock 取代 bootmem。如果开启配置宏 CONFIG_NO_BOOTMEM,memblock 就会取代 bootmem。为了保证兼容性,bootmem 和 memblock 提供了相同的接口。
    的头像 发表于 07-22 11:17 1176次阅读

    Linux内核之伙伴分配器

    内核初始化完毕后,使用页分配器管理物理页,当前使用的页分配器是伙伴分配器,伙伴分配器的特点是算法简单且效率高。
    的头像 发表于 07-25 14:06 1325次阅读

    Linux内核之块分配器

    为了解决小块内存分配问题,Linux 内核提供了块分配器,最早实现的块分配器是SLAB
    的头像 发表于 07-27 09:35 1248次阅读

    Linux内核引导内存分配器的原理

    Linux内核引导内存分配器使用的是伙伴系统算法。这种算法是一种用于动态内存分配的高效算法,它将
    发表于 04-03 14:52 246次阅读