Linux内存管理:CMA(连续内存分配)(DMA)

目录

什么是CMA

数据结构

CMA区域 cma_areas 的创建

dts方式

command line方式

将CMA区域添加到Buddy System

CMA分配


 

《Linux内存管理:什么是CMA(contiguous memory allocation)连续内存分配器?可与DMA结合使用》

《Linux内存管理:CMA(连续内存分配)》

《Linux 内存管理之CMA》

 

什么是CMA


CMA是reserved的一块内存,用于分配连续的大块内存。

  • 当设备驱动不用时,内存管理系统将该区域用于分配和管理可移动类型页面;
  • 当设备驱动使用时,此时已经分配的页面需要进行迁移,又用于连续内存分配

其用法与DMA子系统结合在一起充当DMA的后端,具体可参考《没有IOMMU的DMA操作》。

Linux内存管理:CMA(连续内存分配)(DMA)_第1张图片

 

数据结构


struct cma {
 //CMA区域物理地址的起始页帧号
 unsigned long   base_pfn; 
 //CMA区域总体的页数
 unsigned long   count;
 //位图,用于描述页的分配情况
 unsigned long   *bitmap;
 //位图中每个bit描述的物理页面的order值,其中页面数为2^order值
 unsigned int order_per_bit; /* Order of pages represented by one bit */
 struct mutex    lock;
#ifdef CONFIG_CMA_DEBUGFS
 struct hlist_head mem_head;
 spinlock_t mem_head_lock;
#endif
 const char *name;
};

extern struct cma cma_areas[MAX_CMA_AREAS];
extern unsigned cma_area_count;
  • bitmap来管理其内存的分配,0表示free,1表示已经分配。

  • 如果order_per_bit等于0,表示按照一个一个page来分配和释放,如果order_per_bit等于1,表示按照2个page组成的block来分配和释放,以此类推。

  • count说明该cma_areas内存有多少个page。它和order_per_bit一起决定了bitmap指针指向内存的大小。

  • base_pfn定义了该cma_areas的起始page frame number,base_pfn和count一起定义了该cma_areas在内存中的范围。

Linux内存管理:CMA(连续内存分配)(DMA)_第2张图片

 

CMA区域 cma_areas 的创建


CMA区域的创建有两种方法,一种是通过dts的reserved memory,另外一种是通过command line参数和内核配置参数。

dts方式


reserved-memory {
        /* global autoconfigured region for contiguous allocations */
        linux,cma {
                compatible = "shared-dma-pool";
                reusable;
                size = <0 0x28000000>;
                alloc-ranges = <0 0xa0000000 0 0x40000000>;
                linux,cma-default;
        };
};

device tree中可以包含reserved-memory node,系统启动的时候会打开rmem_cma_setup

RESERVEDMEM_OF_DECLARE(cma, "shared-dma-pool", rmem_cma_setup);

 

command line方式


cma=nn[MG]@[start[MG][-end[MG]]]

static int __init early_cma(char *p)
{
 pr_debug("%s(%s)\n", __func__, p);
 size_cmdline = memparse(p, &p);
 if (*p != '@') {
  /*
  if base and limit are not assigned,
  set limit to high memory bondary to use low memory.
  */
  limit_cmdline = __pa(high_memory);
  return 0;
 }
 base_cmdline = memparse(p + 1, &p);
 if (*p != '-') {
  limit_cmdline = base_cmdline + size_cmdline;
  return 0;
 }
 limit_cmdline = memparse(p + 1, &p);

 return 0;
}
early_param("cma", early_cma);

系统在启动的过程中会把cmdline里的nn, start, end传给函数dma_contiguous_reserve,流程如下:

setup_arch--->arm64_memblock_init--->dma_contiguous_reserve->dma_contiguous_reserve_area->cma_declare_contiguous

Linux内存管理:CMA(连续内存分配)(DMA)_第3张图片

 

将CMA区域添加到Buddy System


为了避免这块reserved的内存在不用时候的浪费,内存管理模块会将CMA区域添加到Buddy System中,用于可移动页面的分配和管理。CMA区域是通过cma_init_reserved_areas接口来添加到Buddy System中的。

static int __init cma_init_reserved_areas(void)
{
 int i;

 for (i = 0; i < cma_area_count; i++) {
  int ret = cma_activate_area(&cma_areas[i]);

  if (ret)
   return ret;
 }

 return 0;
}
core_initcall(cma_init_reserved_areas);

其实现比较简单,主要分为两步:

  1. 把该页面设置为MIGRATE_CMA标志

  2. 通过__free_pages将页面添加到buddy system中

Linux内存管理:CMA(连续内存分配)(DMA)_第4张图片

 

CMA分配


《没有IOMMU的DMA操作》里讲过,CMA是通过cma_alloc分配的。cma_alloc->alloc_contig_range(..., MIGRATE_CMA,...),向刚才释放给buddy system的MIGRATE_CMA类型页面,重新“收集”过来。

Linux内存管理:CMA(连续内存分配)(DMA)_第5张图片

用CMA的时候有一点需要注意

也就是上图中黄色部分的判断。CMA内存在分配过程是一个比较“重”的操作,可能涉及页面迁移、页面回收等操作,因此不适合用于atomic context。比如之前遇到过一个问题,当内存不足的情况下,向U盘写数据的同时操作界面会出现卡顿的现象,这是因为CMA在迁移的过程中需要等待当前页面中的数据回写到U盘之后,才会进一步的规整为连续内存供gpu/display使用,从而出现卡顿的现象。

Linux内存管理:CMA(连续内存分配)(DMA)_第6张图片

 

https://mp.weixin.qq.com/s?__biz=MzIxMjE1MzU4OA==&mid=2648924073&idx=1&sn=bbaf5db820a1ef77b4b0e4190a816040&chksm=8f5d9a32b82a132499513fc05e637257aa7883010207d3593dd292f46cd2f69bbf4d0f32154f&token=1349594618&lang=zh_CN&scene=25#wechat_redirect

你可能感兴趣的:(【Linux内核】)