2.6.26中的内存管理大概分为3个层次 SLUB,伙伴系统和ZONE,其中SLUB在最高层,这里通过分析kmalloc和kfree来分析SLUB的模型,在内存管理中还有NUMA系统,但是NUMA不是必须得,所以以下笔记建立在无SMP和不使用NUMA的环境下,并且不运行DEBUG设置
SLUB主要对1页以下的内存进行管理,将1页内存分成相同大小的块,SLUB将这些块称为object,内核进行内存申请时则分配1个块,也就是1个object
在x86下的32位处理器中,SLUB由13个缓冲结构组成,每个缓冲结构管理大小不同的object,其中0号归NUMA使用,其它12个按顺序分别为96,192,8,16,32,64,128,256,512,1024,2048,4096,如下图所示:
举例来说,第5个缓冲结构管理object大小为16的页面,对于该缓冲来说,将1页内存按16的大小分成了256项,当内核申请1个大小为9-16大小的内存时,SLUB就根据第5个缓冲结构中的空闲object指针freelist取出1个object交给内核
这里可以发现,申请大小为9时,返回16的大小,申请大小为15时,也返回16的大小,大家会认为如果申请的内存都在9到10大小左右徘徊的时候就会浪费大概50%的内存空间,对的,所以学习SLUB就更有必要了嘛,如果都在9-10大小的话就自己更改SLUB缓冲的结构,设置1个9-10大小的缓冲区,专门负责这些内存申请.避免浪费
对每页内存进行分块,虽然在一定程度上浪费了内存,但是方便了内存的申请与回收,提高了效率,下面就对SLUB的这种管理进行分析
首先是SLUB的缓冲结构kmalloc_caches[]数组的初始化,该初始化在kmem_cache_init中进行
kmem_cache_init在/mm/slub.c中,代码如下:
void __init kmem_cache_init(void) { int i; int caches = 0;
init_alloc_cpu(); #ifdef CONFIG_NUMA create_kmalloc_cache(&kmalloc_caches[0], "kmem_cache_node", sizeof(struct kmem_cache_node), GFP_KERNEL); kmalloc_caches[0].refcount = -1; caches++; hotplug_memory_notifier(slab_memory_callback, SLAB_CALLBACK_PRI); #endif slab_state = PARTIAL; //如果kmalloc的最小object小于64 //则初始化1号和2号kmalloc_caches的大小为96和192 if (KMALLOC_MIN_SIZE <= 64) { create_kmalloc_cache(&kmalloc_caches[1], "kmalloc-96", 96, GFP_KERNEL); caches++; create_kmalloc_cache(&kmalloc_caches[2], "kmalloc-192", 192, GFP_KERNEL); caches++; } //按照kmalloc的最小object初始化kmalloc_caches for (i = KMALLOC_SHIFT_LOW; i <= PAGE_SHIFT; i++) { create_kmalloc_cache(&kmalloc_caches[i], "kmalloc", 1 << i, GFP_KERNEL); caches++; } BUILD_BUG_ON(KMALLOC_MIN_SIZE > 256 || (KMALLOC_MIN_SIZE & (KMALLOC_MIN_SIZE - 1))); //按照kmalloc的最小object重新设置size_index for (i = 8; i < KMALLOC_MIN_SIZE; i += 8) size_index[(i - 1) / 8] = KMALLOC_SHIFT_LOW;
if (KMALLOC_MIN_SIZE == 128) { for (i = 128 + 8; i <= 192; i += 8) size_index[(i - 1) / 8] = 8; } slab_state = UP; //按照kmalloc的最小object重新设置kmalloc_caches的名字 for (i = KMALLOC_SHIFT_LOW; i <= PAGE_SHIFT; i++) kmalloc_caches[i]. name = kasprintf(GFP_KERNEL, "kmalloc-%d", 1 << i); #ifdef CONFIG_SMP register_cpu_notifier(&slab_notifier); kmem_size = offsetof(struct kmem_cache, cpu_slab) + nr_cpu_ids * sizeof(struct kmem_cache_cpu *); #else kmem_size = sizeof(struct kmem_cache); #endif printk(KERN_INFO "SLUB: Genslabs=%d, HWalign=%d, Order=%d-%d, MinObjects=%d," " CPUs=%d, Nodes=%d/n", caches, cache_line_size(), slub_min_order, slub_max_order, slub_min_objects, nr_cpu_ids, nr_node_ids); }
|
由于不使用NUMA系统,所以这里不会执行#ifdef CONFIG_NUMA中的代码,也就不会初始化0号缓冲
所有缓冲结构的初始化都是由create_kmalloc_cache负责 create_kmalloc_cache在/mm/slub.c中,代码如下:
static struct kmem_cache *create_kmalloc_cache(struct kmem_cache *s, const char *name, int size, gfp_t gfp_flags) { unsigned int flags = 0; //检测是否为DMA缓冲结构 if (gfp_flags & SLUB_DMA) //是则加上DMA标志 flags = SLAB_CACHE_DMA; down_write(&slub_lock); //分配一个缓冲 if (!kmem_cache_open(s, gfp_flags, name, size, ARCH_KMALLOC_MINALIGN,flags, NULL)) goto panic; //将该缓冲挂载到slab_caches链表中 list_add(&s->list, &slab_caches); up_write(&slub_lock); if (sysfs_slab_add(s)) goto panic; return s; panic: panic("Creation of kmalloc slab %s size=%d failed./n", name, size); }
|
主要的初始化在kmem_cache_open中进行
kmem_cache_open在/mm/slub.c中,代码如下:
static int kmem_cache_open(struct kmem_cache *s, gfp_t gfpflags, const char *name, size_t size, size_t align, unsigned long flags, void (*ctor)(struct kmem_cache *, void *)) { //初始化kmem缓冲,将内容全部清零 memset(s, 0, kmem_size); //设置缓冲的名字 s->name = name; //设置缓冲的object初始化函数 s->ctor = ctor; //设置缓冲的object大小 s->objsize = size; //设置缓冲的对齐 s->align = align; //设置缓冲的标志 s->flags = kmem_cache_flags(size, flags, name, ctor); //根据object的大小计算对应的object数目 if (!calculate_sizes(s, -1)) goto error; s->refcount = 1; #ifdef CONFIG_NUMA s->remote_node_defrag_ratio = 100; #endif //初始化邻居页面链表 if (!init_kmem_cache_nodes(s, gfpflags & ~SLUB_DMA)) goto error; //初始化CPU的私有kmem缓冲 if (alloc_kmem_cache_cpus(s, gfpflags & ~SLUB_DMA)) return 1; free_kmem_cache_nodes(s); error: if (flags & SLAB_PANIC) panic("Cannot create slab %s size=%lu realsize=%u " "order=%u offset=%u flags=%lx/n", s->name, (unsigned long)size, s->size, oo_order(s->oo), s->offset, flags); return 0; } |
calculate_sizes负责计算object的大小,就是对kmem_cache结构中oo,max,min成员的赋值,以及对object大小进行边界和字对齐,但是对边界和字对齐还不熟悉,所以我就不分析了 = 3=
接下来是init_kmem_cache_nodes, init_kmem_cache_nodes负责对邻居页面链表进行初始化 init_kmem_cache_nodes在/mm/slub.c中,由于这里不使用NUMA系统,所以代码如下:
static int init_kmem_cache_nodes(struct kmem_cache *s, gfp_t gfpflags) { init_kmem_cache_node(&s->local_node); return 1; } |
init_kmem_cache_node在mm/slub.c中,代码如下:
static void init_kmem_cache_node(struct kmem_cache_node *n) { n->nr_partial = 0; spin_lock_init(&n->list_lock); INIT_LIST_HEAD(&n->partial); #ifdef CONFIG_SLUB_DEBUG atomic_long_set(&n->nr_slabs, 0); INIT_LIST_HEAD(&n->full); #endif } |
主要进行了一下初始化工作
回到kmem_cache_open中,现在到alloc_kmem_cache_cpus, alloc_kmem_cache_cpus负责CPU私有缓冲的初始化工作 alloc_kmem_cache_cpus在mm/slub.c中,由于不使用SMP,所以代码如下:
static inline int alloc_kmem_cache_cpus(struct kmem_cache *s, gfp_t flags) { init_kmem_cache_cpu(s, &s->cpu_slab); return 1; } |
init_kmem_cache_cpu在mm/slub.c中,代码如下
static void init_kmem_cache_cpu(struct kmem_cache *s, struct kmem_cache_cpu *c) { c->page = NULL; c->freelist = NULL; c->node = 0; c->offset = s->offset / sizeof(void *); c->objsize = s->objsize; #ifdef CONFIG_SLUB_STATS memset(c->stat, 0, NR_SLUB_STAT_ITEMS * sizeof(unsigned)); #endif } |
初始化完成后, kmem_cache_open和create_kmalloc_cache也执行完了,返回到kmem_cache_init中,接下来kmem_cache_init主要执行缓冲名字的设置工作
下图是第6个缓冲结构,也就是object大小为32的缓冲初始化后的结构图
kmem_cache_init执行完成后,SLUB的初始化就完成了,就接下来我们就能使用kmalloc进行内存的分配了 假设kmalloc申请的大小为32,标志为GFP_KKERNEL,GFP_KERNEL是标志_GFP_WAIT , _GFP_IO 和 _GFP_FS的集合,也就是kmalloc(32,GFP_KERNEL) 下面就进入到kmalloc的分析中 kmalloc在/mm/slub.c中,代码如下:
static __always_inline void *kmalloc(size_t size, gfp_t flags) { //也就是检测size是变量还是常量 //为常量则执行if if (__builtin_constant_p(size)) { //检测申请的大小是否超过1页内存的大小 if (size > PAGE_SIZE) //调用大块内存分配 return kmalloc_large(size, flags); //检测申请的内存是否用于DMA if (!(flags & SLUB_DMA)) { //根据申请的大小选取对应的缓冲结构 struct kmem_cache *s = kmalloc_slab(size); //检测kmem缓冲取得是否成功 if (!s) return ZERO_SIZE_PTR; //使用缓冲结构取得内存 return kmem_cache_alloc(s, flags); } } //变量及DMA使用__kmalloc分配内存 return __kmalloc(size, flags); } |
__builtin_constant_p检测参数是变量还是常量,举个例子说kmalloc(i,GFP_KERNEL)就是变量,kmalloc(32,GFP_KERNEL)就是常量 这里先看常量,进入if中,这里先说一下kmalloc_large, kmalloc_large负责超过1页内存的申请,超过1页的内存分配由伙伴系统进行,不由SLUB进行. 接下来到if (!(flags & SLUB_DMA)),这里我们申请的内存标志为GFP_KERNEL,没有DMA标志,所以进入到if中 首先根据申请的大小选取对应的缓冲序号,进入到kmalloc_slab中 kmalloc_slab在include /linux/slub_def.h中,代码如下:
static __always_inline struct kmem_cache *kmalloc_slab(size_t size) { //根据申请的大小取得对应kmem缓冲的序号 int index = kmalloc_index(size); if (index == 0) return NULL; //根据序号取得对应的kmem缓冲 return &kmalloc_caches[index]; } |
继续进入到kmalloc_index kmalloc_index在include /linux/slub_def.h中,代码如下:
static __always_inline int kmalloc_index(size_t size) { //检测大小是否为0 if (!size) //为0则返回0 return 0; //检测大小是否小于kmalloc的最小object if (size <= KMALLOC_MIN_SIZE) //小于则返回最小object的对数 return KMALLOC_SHIFT_LOW; //检测kmalloc的最小object是否小于64 #if KMALLOC_MIN_SIZE <= 64 //大于64而小于96则使用1号kmem if (size > 64 && size <= 96) return 1; //大于128而小于192则使用2号kmem if (size > 128 && size <= 192) return 2; #endif //以下根据大小的不同,返回对应的kmem缓冲号 if (size <= 8) return 3; if (size <= 16) return 4; if (size <= 32) return 5; if (size <= 64) return 6; if (size <= 128) return 7; if (size <= 256) return 8; if (size <= 512) return 9; if (size <= 1024) return 10; if (size <= 2 * 1024) return 11; if (size <= 4 * 1024) return 12; //以下是对于分页大于4K所使用的检测 if (size <= 8 * 1024) return 13; if (size <= 16 * 1024) return 14; if (size <= 32 * 1024) return 15; if (size <= 64 * 1024) return 16; if (size <= 128 * 1024) return 17; if (size <= 256 * 1024) return 18; if (size <= 512 * 1024) return 19; if (size <= 1024 * 1024) return 20; if (size <= 2 * 1024 * 1024) return 21; return -1; } |
得到缓冲结构后,就来到了kmem_cache_alloc中 kmem_cache_alloc在mm/slub.c中
void *kmem_cache_alloc(struct kmem_cache *s, gfp_t gfpflags) { return slab_alloc(s, gfpflags, -1, __builtin_return_address(0)); }
|
简单的调用, __builtin_return_address产生的值用于DEBUG,这里我们并不会使用到,继续来到slab_alloc中 slab_alloc在mm/slub.c中,代码如下:
static __always_inline void *slab_alloc(struct kmem_cache *s, gfp_t gfpflags, int node, void *addr) { void **object; struct kmem_cache_cpu *c; unsigned long flags; unsigned int objsize;
//保存并关闭中断 local_irq_save(flags); //取得kmem缓冲中对应当前CPU序号的私有kmem缓冲 c = get_cpu_slab(s, smp_processor_id()); //取得缓冲中object的大小 objsize = c->objsize; //检测CPU的私有kmem缓冲的空闲object指针是否为空 if (unlikely(!c->freelist || !node_match(c, node))) //为空则新申请1块页面 object = __slab_alloc(s, gfpflags, node, addr, c); //不为空则使用object指针所指的object else { //取得空闲的object object = c->freelist; //object指针指向下1个空闲的object c->freelist = object[c->offset]; //设置ALLOC_FASTPATH状态计数器加1 stat(c, ALLOC_FASTPATH); } //恢复中断 local_irq_restore(flags); //检测是否需要清零object //需要的话检测当先object是否为空 if (unlikely((gfpflags & __GFP_ZERO) && object)) memset(object, 0, objsize); return object; } |
get_cpu_slab负责取得CPU的私有kmem缓冲 get_cpu_slab在mm/slub.c中,代码如下
static inline struct kmem_cache_cpu *get_cpu_slab(struct kmem_cache *s, int cpu) { #ifdef CONFIG_SMP return s->cpu_slab[cpu]; #else return &s->cpu_slab; #endif } |
由于不使用SMP,所以这里很简单,返回缓冲结构中的CPU私有缓冲结构 接下来到node_match , node_match在mm/slub.c中,代码如下
static inline int node_match(struct kmem_cache_cpu *c, int node) { #ifdef CONFIG_NUMA if (node != -1 && c->node != node) return 0; #endif return 1; } |
由于我们不使用NUMA,所以node_match永远返回1 因为这时候是第1次调用kmalloc,所以CPU的私有kmem缓冲中的freelist指针为空 所以我们进入到__slab_alloc中 __slab_alloc在mm/slub.c中,代码如下:
static void *__slab_alloc(struct kmem_cache *s, gfp_t gfpflags, int node, void *addr, struct kmem_cache_cpu *c) { void **object; struct page *new;
//这里不处理清零,取消清零标记 gfpflags &= ~__GFP_ZERO; //检测CPU的私有kmem缓冲的页面是否为空 if (!c->page) //页面为空则申请1块页面 goto new_slab; //为将要操作的页面上锁 slab_lock(c->page); if (unlikely(!node_match(c, node))) goto another_slab; stat(c, ALLOC_REFILL); load_freelist: //取得页面的空闲object指针 object = c->page->freelist; //检测空闲object是否为空 if (unlikely(!object)) //为空则使用别的 goto another_slab; if (unlikely(SlabDebug(c->page))) goto debug; //CPU的私有缓冲的object指针指向下1个空闲的object c->freelist = object[c->offset]; //设置页面的使用计数器为页面的object数目 c->page->inuse = c->page->objects; //设置页面的空闲object指针为空 c->page->freelist = NULL; c->node = page_to_nid(c->page); unlock_out: //解除页面的锁 slab_unlock(c->page); stat(c, ALLOC_SLOWPATH); return object; another_slab: deactivate_slab(s, c); new_slab: //检测是否有邻居页面 new = get_partial(s, gfpflags, node); //检测邻居页面取得是否成功 if (new) { //连接邻居页面到CPU得私有kmem缓冲上 c->page = new; //ALLOC_FROM_PARTIAL状态计数器加1 stat(c, ALLOC_FROM_PARTIAL); //跳转到load_freelist goto load_freelist; } //检测是否可以中断,可以则打开IRQ if (gfpflags & __GFP_WAIT) local_irq_enable(); //取得1块新的页面 new = new_slab(s, gfpflags, node); //关闭IRQ if (gfpflags & __GFP_WAIT) local_irq_disable(); //检测取得页面是否成功 if (new) { //取得当前CPU的私有kmem缓冲 c = get_cpu_slab(s, smp_processor_id()); //ALLOC_SLAB状态计数器加1 stat(c, ALLOC_SLAB); //检测当前CPU的私有kmem缓冲的页面是否为空 if (c->page) //释放该页面 flush_slab(s, c); //为将要操作的页面上锁 slab_lock(new); //设置页面属性,设置PG_active属性 SetSlabFrozen(new); //连接该页面到CPU的私有kmem缓冲 c->page = new; goto load_freelist; } return NULL; debug: if (!alloc_debug_processing(s, c->page, object, addr)) goto another_slab; c->page->inuse++; c->page->freelist = object[c->offset]; c->node = -1; goto unlock_out; } |
这时候CPU的私有kmem缓冲中的页面还为空,所以我们来到了new_slab标号处 这里首先检测是否有邻居页面,刚初始化完出来,还没邻居呢,所以会返回空,以后我们再来分析有邻居的时候是如何分配的
呢么就来到new_slab new_slab在/mm/slub.c中,代码如下:
static struct page *new_slab(struct kmem_cache *s, gfp_t flags, int node) { struct page *page; void *start; void *last; void *p;
BUG_ON(flags & GFP_SLAB_BUG_MASK); //取得1块新的页面 page = allocate_slab(s, flags & (GFP_RECLAIM_MASK | GFP_CONSTRAINT_MASK), node); //检测取得页面是否成功 if (!page) goto out; inc_slabs_node(s, page_to_nid(page), page->objects); //连接缓冲结构到该页面 page->slab = s; //设置页面的slab属性 page->flags |= 1 << PG_slab; if (s->flags & (SLAB_DEBUG_FREE | SLAB_RED_ZONE | SLAB_POISON | SLAB_STORE_USER | SLAB_TRACE)) SetSlabDebug(page); //取得页面的起始地址 start = page_address(page); if (unlikely(s->flags & SLAB_POISON)) memset(start, POISON_INUSE, PAGE_SIZE << compound_order(page)); //下面进行页面的object设置 //首先取得页面的起始地址 last = start; //按照object的大小将页面分成对应的块数 //历遍块数大小 //p指向页面的起始地址,每次自增object的大小 for_each_object(p, s, start, page->objects) { //使用缓冲的ctor函数对object进行初始化 setup_object(s, page, last); //设置last所指的内容为p所指向的地址 //也就是将所有object连接成1个单向链表 set_freepointer(s, last, p); //设置last为p last = p; } //使用缓冲的ctor函数对object进行初始化 setup_object(s, page, last); //设置last所指的内容为NULL //也就是到达了页尾,最后一个object set_freepointer(s, last, NULL); //设置页面的空闲object指针为页面起始地址 //也就是第1个object page->freelist = start; //设置使用计数器为0 page->inuse = 0; out: //返回该页面 return page; } |
allocate_slab取得一个空的页面,并进行一下初始化,主要是将page->objects设成了缓冲成员oo中的x,这里也就是128,因为涉及到kmem_cache结构中oo成员,这个成员和边界对齐有些关系,我对边界对齐还不熟悉,就暂时不分析这个函数,不过并不会影响到下面的分析
下面主要分析SLUB对页面object的初始化,也就是如何将页面分成1个个的object for_each_object是一个宏,在mm/slub.c中,代码如下:
#define for_each_object(__p, __s, __addr, __objects) / for (__p = (__addr); __p < (__addr) + (__objects) * (__s)->size;/ __p += (__s)->size) |
setup_objec在mm/slub.c中,代码如下:
static void setup_object(struct kmem_cache *s, struct page *page, void *object) { setup_object_debug(s, page, object); if (unlikely(s->ctor)) s->ctor(s, object); } |
因为ctor为NULL,所以不会执行s->ctor(s, object); 什么都没执行,所以这相等于一个空函数
set_freepointer在mm/slub.c中,代码如下:
static inline void set_freepointer(struct kmem_cache *s, void *object, void *fp) { *(void **)(object + s->offset) = fp; } |
呢么展开这几个函数,就是下列代码
for( p = start ; p < start + page->objects * s->size ; p += s->size) { *(void **)(last + s->offset) = p; last = p; } *(void **)(last + s->offset) = p; |
再将缓冲结构中的数值代入,得出
for( p = start ; p < start + 128 * 32 ; p += 32) { *(void **)(last + 0) = p; last = p; } *(void **)(last + 0) = p; |
这里也是SLUB最主要的部分,我们用图来说明,首先先看一下逻辑上的视图
这其实连接成了1个单向链表,用链表的视角来看的话如下
然后我们假设页面的起始地址为0x0000,呢么该页面的内存视图如下
初始化完成后将页面的空闲object指针指向第1个object,如下
然后返回到__slab_alloc中,现在跳转到标号load_freelist处 首先将当前page->freelist的值赋给了将要返回的指针 然后将CPU的私有kmem缓冲中的freelist,也就是空闲object指针指向了下一项,如下
将空闲object指针指向下一项的代码为c->freelist = object[c->offset] 由于c->offset为0,所以这里为c->freelist = object[0],这句代码困惑了我很久,多亏了chinaunix的dreamice和fera的提示,才顺利解决
这句代码主要就是提取object指针所指的内容,object[0]也就是提取偏移为0的内容,这里object指向了第一项object,呢么object[0]就是第一项object中的下一项object地址,也就是相当于读取了一个链表节点的next节点 然后将页面的freelist指针设为NULL 我认为这里设为NULL的意思也就是该页面所有的项都由SLUB来管理,所以页面没有空余的项 然后返回到slab_alloc中,根据__GFP_ZERO标志来判断是否需要将得到的object进行清零,然后再返回object的地址 到这里kmalloc的操作就完成了
现在回头看看是变量或者DMA的情况下如何进行的 这种情况下会进入__kmalloc中 __kmalloc在mm/slub.c中,代码如下
void *__kmalloc(size_t size, gfp_t flags) { struct kmem_cache *s; //检测大小是否超过1页内存 if (unlikely(size > PAGE_SIZE)) return kmalloc_large(size, flags); //取得对应大小的kmem缓冲 s = get_slab(size, flags); //检测取得是否成功 if (unlikely(ZERO_OR_NULL_PTR(s))) return s; //从缓冲结构中分配object return slab_alloc(s, flags, -1, __builtin_return_address(0)); } |
首先进到get_slab中 get_slab在mm/slub.c中,代码如下:
static struct kmem_cache *get_slab(size_t size, gfp_t flags) { int index;
//检测大小是否小于192 if (size <= 192) { //大小为0或者NULL则返回(void *)16 if (!size) return ZERO_SIZE_PTR; //取得对应的kmem序号 index = size_index[(size - 1) / 8]; } else //将大小转化为2进制,取得最后1位的位置 index = fls(size - 1); #ifdef CONFIG_ZONE_DMA if (unlikely((flags & SLUB_DMA))) return dma_kmalloc_cache(index, flags); #endif //返回对应序号的kmem缓冲 return &kmalloc_caches[index]; } |
然后执行slab_alloc, slab_alloc在之前已经分析过了,这里就不再复述了
以上只说明了第1种分配方法,根据程序的走向,kmalloc一共有4种分配方法: 1. 页面为空 2. 页面未满 3. 页面已满 4. 邻居页面未满
下面分析先分析第2和第3种分配方法
首先是第2种,假设还是使用kmalloc(32,GFP_KERNEL),呢么第6个缓冲结构进行第二次分配工作 一路来到slab_alloc中,这次不会进入__slab_alloc了,因为这时c->freelist并不为空,它指向了页面的第二个object,然后执行下列代码: //取得空闲的object object = c->freelist; //object指针指向下1个空闲的object c->freelist = object[c->offset];
执行完成后的视图如下:
c->freelist指向了第3个object,这里需要注意的是第1项,也就是最早分配的object,他的下一项空闲object指针也许被冲掉了,主要有2个原因,1是标志ZERO,将这个object初始化为0,2是程序的读写将指针改写了,所以如果使用kmalloc申请小于1页的内存时不使用GFP_ZERO标记,然后马上对得到的内存进行读取,呢么就能得到下一项空闲object的地址
第2种分配方法一直会持续到c->freelist指向最后一项,也就是NULL,这个时候第3种分配方法就要执行了
还是来到slab_alloc中,这个时候c->freelist为NULL,进入到__slab_alloc中 由于这个时候CPU的私有kmem缓冲中的页面并不为空,但是页面的freelist指针为空,所以会执行 if (unlikely(!object)) //为空则使用别的 goto another_slab; 跳转到标号another_slab处执行 标号another_slab处只有一个deactivate_slab函数 deactivate_slab在mm/slub.c中,代码如下:
static void deactivate_slab(struct kmem_cache *s, struct kmem_cache_cpu *c) { struct page *page = c->page; int tail = 1; if (page->freelist) stat(c, DEACTIVATE_REMOTE_FREES); //检测object是否已经使用完了 while (unlikely(c->freelist)) { void **object; tail = 0; /* Hot objects. Put the slab first */ /* Retrieve object from cpu_freelist */ object = c->freelist; c->freelist = c->freelist[c->offset]; /* And put onto the regular freelist */ object[c->offset] = page->freelist; page->freelist = object; page->inuse--; } //设置CPU私有缓冲使用的页面为空 c->page = NULL; unfreeze_slab(s, page, tail); }
|
由于这时c->freelist为NULL,所以不会执行while中的内容,来到unfreeze_slab中 unfreeze_slab在mm/slub.c中,代码如下:
static void unfreeze_slab(struct kmem_cache *s, struct page *page, int tail) { struct kmem_cache_node *n = get_node(s, page_to_nid(page)); struct kmem_cache_cpu *c = get_cpu_slab(s, smp_processor_id());
//清除页面的PG_active属性 ClearSlabFrozen(page); //检测页面的使用计数器 if (page->inuse) { //检测页面的空闲object指针是否为空 if (page->freelist) { //不为空则添加到邻居页面链表中 add_partial(n, page, tail); stat(c, tail ? DEACTIVATE_TO_TAIL : DEACTIVATE_TO_HEAD); } else { stat(c, DEACTIVATE_FULL); if (SlabDebug(page) && (s->flags & SLAB_STORE_USER)) add_full(n, page); } slab_unlock(page); } else { stat(c, DEACTIVATE_EMPTY); //检测缓冲中的邻居页面计数器是否达到了最小值 if (n->nr_partial < MIN_PARTIAL) { //加入到邻居页面链表中 add_partial(n, page, 1); slab_unlock(page); } else { slab_unlock(page); stat(get_cpu_slab(s, raw_smp_processor_id()), FREE_SLAB); //释放该页面 discard_slab(s, page); } } } |
这时页面的使用计数器不为0,所以进入到if中,然后因为页面的freelist为NULL,所以进入到else中 else中主要执行了状态计数器的增加和DEBUG测试,并没有什么实质性的工作,然后就退出了
回到__slab_alloc中,又来到了new_slab,这个时候邻居页面链表还是为空,所以又执行了1次第1种分配方法,分配了1个新的页面
接下来先分析kfree,然后再看第4种分配方法
kfree负责回收使用的内存, kfree在mm/slub.c中,代码如下:
void kfree(const void *x) { struct page *page; void *object = (void *)x;
//检测所要释放的地址是否为空 if (unlikely(ZERO_OR_NULL_PTR(x))) return; //按照地址取得对应的页面结构 page = virt_to_head_page(x); //检测页面是否有PageSlab属性 if (unlikely(!PageSlab(page))) { //无则释放该页面 put_page(page); return; } slab_free(page->slab, page, object, __builtin_return_address(0)); } |
这里假设使用kfree回收的地址的页面结构属于SLUB管理的页面,也就是具有pageslab属性,不会进入到if中 __builtin_return_address产生的值用于DEBUG,这里我们并不会使用到 然后进入到slab_free中 slab_free在mm/slub.c中,代码如下
static __always_inline void slab_free(struct kmem_cache *s, struct page *page, void *x, void *addr) { void **object = (void *)x; struct kmem_cache_cpu *c; unsigned long flags;
local_irq_save(flags); //取得当前CPU的私有kmem缓冲 c = get_cpu_slab(s, smp_processor_id()); debug_check_no_locks_freed(object, c->objsize); if (!(s->flags & SLAB_DEBUG_OBJECTS)) debug_check_no_obj_freed(object, s->objsize); //检测缓冲中的页面是否为当前页面 //还有缓冲中的node属性是否大于或者等于0 if (likely(page == c->page && c->node >= 0)) { //将object中的下一空闲object指针设置为缓冲的下一空闲object object[c->offset] = c->freelist; //将缓冲的下一空闲object指针指向object c->freelist = object; stat(c, FREE_FASTPATH); } else //不为缓冲中的页面主体调用__slab_free __slab_free(s, page, x, addr, c->offset); local_irq_restore(flags); } |
如果为当前页面,假设c->freelist指向第3项object,我们所要回收的是第1项object,呢么视图如下:
这里主要将设置object所指的object中的空闲object指针指向c->freelist,然后再将c->freelist指向object,指向完毕后的视图如下:
当不为当前页面的时候,则进入到__slab_free中 __slab_free在mm/slub.c中,代码如下:
static void __slab_free(struct kmem_cache *s, struct page *page, void *x, void *addr, unsigned int offset) { void *prior; void **object = (void *)x; struct kmem_cache_cpu *c;
//取得当前CPU的kmem缓冲 c = get_cpu_slab(s, raw_smp_processor_id()); stat(c, FREE_SLOWPATH); //将页面上锁 slab_lock(page); if (unlikely(SlabDebug(page))) goto debug; checks_ok: //将object的下一空闲object指针指向页面的下一空闲object //并且将页面的下一空闲object保存在prior prior = object[offset] = page->freelist; //将页面的下一空闲object指针指向当前object page->freelist = object; //减少页面的使用计数器 page->inuse--; //检测页面是否有PG_active if (unlikely(SlabFrozen(page))) { stat(c, FREE_FROZEN); goto out_unlock; } //检测页面的使用计数器是否为0 if (unlikely(!page->inuse)) goto slab_empty; //检测页面原来的下一空闲object指针是否为NULL if (unlikely(!prior)) { //将该页面添加到缓冲的邻居页面中 add_partial(get_node(s, page_to_nid(page)), page, 1); stat(c, FREE_ADD_PARTIAL); } out_unlock: slab_unlock(page); return; slab_empty: //检测页面原来的下一空闲object指针是否为NULL if (prior) { //从邻居页面链表中移除该页面 remove_partial(s, page); stat(c, FREE_REMOVE_PARTIAL); } slab_unlock(page); stat(c, FREE_SLAB); //释放该页面 discard_slab(s, page); return; debug: if (!free_debug_processing(s, page, x, addr)) goto out_unlock; goto checks_ok; } |
__slab_free首先进行再连接过程,就如上面为当前页面差不多,然后有两种选择,1种是加入到邻居页面链表中,另1种是释放该页面 先看加入到邻居页面链表中 当检测使用计数器不为0,并且原下一空闲object指针为NULL的时候(不为NULL说明已经加入到邻居页面链表中了,不需要再加1次),就会执行add_partial 不过首先先看get_node get_node在/mm/slub.c中,代码如下:
static inline struct kmem_cache_node *get_node(struct kmem_cache *s, int node) { #ifdef CONFIG_NUMA return s->node[node]; #else return &s->local_node; #endif } |
由于我们不使用NUMA,所以不论node的结果如何,get_node都返回&s->local_node
然后到add_partial, add_partial在mm/slub.c中,代码如下
static void add_partial(struct kmem_cache_node *n, struct page *page, int tail) { spin_lock(&n->list_lock); //增加邻居页面计数器 n->nr_partial++; //检测是否添加到尾部 if (tail) //将该页面添加到邻居页面链表中 list_add_tail(&page->lru, &n->partial); else list_add(&page->lru, &n->partial); spin_unlock(&n->list_lock); } |
连接完成后的结构图如下:
然后看释放该页面 如果使用计数器为0则跳转到标号slab_empty处 首先检测是否在邻居页面链表中,如果在则执行remove_partial函数 remove_partial在mm/slub.c中,代码如下:
static void remove_partial(struct kmem_cache *s, struct page *page) { struct kmem_cache_node *n = get_node(s, page_to_nid(page));
spin_lock(&n->list_lock); //从邻居页面链表中脱离 list_del(&page->lru); //减少邻居页面计数器 n->nr_partial--; spin_unlock(&n->list_lock); } |
简单的将页面移除并减少邻居页面计数器
最后执行discard_slab释放页面,由于discard_slab和伙伴系统牵涉较深,等之后的伙伴系统学习笔记再分析吧 = 3=
好,现在邻居页面链表中有存货了~ 我们看看第4种分配方法 当第2种分配方法一直持续到c->freelist指向最后一项,也就是NULL,并且邻居页面链表中有存货的时候,就会进入到第4种分配方法
第4种分配方法其实属于第3种方法的分支,当第3种方法进入到标号new_slab处时,进入get_partial从邻居页面链表中取得页面成功就为第4种分配方法
现在进入get_partial函数中 get_partial在mm/slub.c中,代码如下:
static struct page *get_partial(struct kmem_cache *s, gfp_t flags, int node) { struct page *page; int searchnode = (node == -1) ? numa_node_id() : node; //取得邻居页面 page = get_partial_node(get_node(s, searchnode)); //检测取得是否成功 if (page || (flags & __GFP_THISNODE)) return page; return get_any_partial(s, flags); } |
get_node在之前已经分析过了,他会返回&s->local_node; 然后到get_partial_node中 get_partial_node在mm/slub.c中,代码如下
static struct page *get_partial_node(struct kmem_cache_node *n) { struct page *page; //检测缓冲节点或者节点中的局部计数器是否为0 if (!n || !n->nr_partial) return NULL; //给当前的kmem_cache_node结构上锁 spin_lock(&n->list_lock); //历遍LRU最少使用链表 list_for_each_entry(page, &n->partial, lru) //检测取得邻居页面是否成功 if (lock_and_freeze_slab(n, page)) goto out; //没有可用的邻居页面 page = NULL; out: //解锁 spin_unlock(&n->list_lock); //返回页面 return page; }
|
主要就是历遍partial链表寻找对应的页面,视图如下:
红线是prev,蓝线是next, partial以next为顺序进行历遍,因为最后1个page是最后加入的
然后执行lock_and_freeze_slab lock_and_freeze_slab在mm/slub.c中,代码如下
static inline int lock_and_freeze_slab(struct kmem_cache_node *n, struct page *page) { //设置页面的PG_locked属性,并检测是否设置成功 if (slab_trylock(page)) { //从邻居页面链表中脱离 list_del(&page->lru); //邻居页面数减1 n->nr_partial--; //设置页面的PG_active属性 SetSlabFrozen(page); return 1; } return 0; } |
lock_and_freeze_slab首先尝试锁定页面 如果页面锁定属性为0则锁定并返回操作成功 如果页面锁定属性已经为1,则不能操作该页面,返回0表示失败
get_partial返回页面后跳转到load_freelist处,接下来的执行就和之前的几种方法一样了
= 3= 笔记就到此结束了
在这次分析中心中还是有不少疑问的,像page中的inuse属性,这个属性目前分析是只在初始化中复制,只有每次kfree的时候减一,而从不自增,如果一个页面一直减一,但其内容一直为满的话,如果最后inuse属性为0的时候,不就把页面所有的内容都释放掉了,呢正在使用中的object也释放掉了,呢么不就导致内存同步错误了
还有分析过程中的一些函数不能理解是什么时候才调用的
看来光有理论还不行啊~ 还需要多实践才能搞明白 T 3T
希望大家喜欢~ = 3=)/
转载请注明转自小生的BLOG zwolf.cublog.cn
|
|