转自:Go 内存分配器的设计与实现
系统设计、微服务架构和云原生技术](https://mp.weixin.qq.com/s/NgBHtBqNixfS_Qol_h8Hxw#)
程序中的数据和变量都会被分配到程序所在的虚拟内存中,内存空间包含两个重要区域 — 栈区(Stack)和堆区(Heap)。函数调用的参数、返回值以及局部变量大都会被分配到栈上,这部分内存会由编译器进行管理;不同编程语言使用不同的方法管理堆区的内存,C++ 等编程语言会由工程师主动申请和释放内存,Go 以及 Java 等编程语言会由工程师和编译器共同管理,堆中的对象由内存分配器分配并由垃圾收集器回收。
不同的编程语言会选择不同的方式管理内存,本节会介绍 Go 语言内存分配器,详细分析内存分配的过程以及其背后的设计与实现原理。
设计原理
内存管理一般包含三个不同的组件,分别是用户程序(Mutator)、分配器(Allocator)和收集器(Collector)[^1],当用户程序申请内存时,它会通过内存分配器申请新的内存,而分配器会负责从堆中初始化相应的内存区域。
mutator-allocator-collector
图 7-1 内存管理的组件
Go 语言的内存分配器实现非常复杂,在分析内存分配器的实现之前,我们需要了解内存分配的设计原理,帮助我们更快掌握内存的分配过程。这里将要详细介内存分配器的分配方法以及 Go 语言内存分配器的分级分配方法、虚拟内存布局和地址空间。
分配方法
编程语言的内存分配器一般包含两种分配方法,一种是线性分配器(Sequential Allocator,Bump Allocator),另一种是空闲链表分配器(Free-List Allocator),这两种分配方法有着不同的实现机制和特性,本节会依次介绍它们的分配过程。
线性分配器
线性分配(Bump Allocator)是一种高效的内存分配方法,但是有较大的局限性。当我们在编程语言中使用线性分配器,我们只需要在内存中维护一个指向内存特定位置的指针,当用户程序申请内存时,分配器只需要检查剩余的空闲内存、返回分配的内存区域并修改指针在内存中的位置,即移动下图中的指针:
bump-allocator
图 7-2 线性分配器
根据线性分配器的原理,我们可以推测它有较快的执行速度,以及较低的实现复杂度;但是线性分配器无法在内存被释放时重用内存。如下图所示,如果已经分配的内存被回收,线性分配器是无法重新利用红色的这部分内存的:
bump-allocator-reclaim-memory
图 7-3 线性分配器回收内存
正是因为线性分配器的这种特性,我们需要合适的垃圾回收算法配合使用。标记压缩(Mark-Compact)、复制回收(Copying GC)和分代回收(Generational GC)等算法可以通过拷贝的方式整理存活对象的碎片,将空闲内存定期合并,这样就能利用线性分配器的效率提升内存分配器的性能了。
因为线性分配器的使用需要配合具有拷贝特性的垃圾回收算法,所以 C 和 C++ 等需要直接对外暴露指针的语言就无法使用该策略,我们会在下一节详细介绍常见垃圾回收算法的设计原理。
空闲链表分配器
空闲链表分配器(Free-List Allocator)可以重用已经被释放的内存,它在内部会维护一个类似链表的数据结构。当用户程序申请内存时,空闲链表分配器会依次遍历空闲的内存块,找到足够大的内存,然后申请新的资源并修改链表:
free-list-allocator
图 7-4 空闲链表分配器
因为不同的内存块以链表的方式连接,所以使用这种方式分配内存的分配器可以重新利用回收的资源,但是因为分配内存时需要遍历链表,所以它的时间复杂度就是 。空闲链表分配器可以选择不同的策略在链表中的内存块中进行选择,最常见的就是以下四种方式:
- 首次适应(First-Fit)— 从链表头开始遍历,选择第一个大小大于申请内存的内存块;
- 循环首次适应(Next-Fit)— 从上次遍历的结束位置开始遍历,选择第一个大小大于申请内存的内存块;
- 最优适应(Best-Fit)— 从链表头遍历整个链表,选择最合适的内存块;
- 隔离适应(Segregated-Fit)— 将内存分割成多个链表,每个链表中的内存块大小相同,申请内存时先找到满足条件的链表,再从链表中选择合适的内存块;
上述四种策略的前三种就不过多介绍了,Go 语言使用的内存分配策略与第四种策略有些相似,我们通过下图了解一下该策略的原理:
segregated-list
图 7-5 隔离适应策略
如上图所示,该策略会将内存分割成由 4、8、16、32 字节的内存块组成的链表,当我们向内存分配器申请 8 字节的内存时,我们会在上图中的第二个链表找到空闲的内存块并返回。隔离适应的分配策略减少了需要遍历的内存块数量,提高了内存分配的效率。
分级分配
线程缓存分配(Thread-Caching Malloc,TCMalloc)是用于分配内存的的机制,它比 glibc 中的 malloc
函数还要快很多[^2]。Go 语言的内存分配器就借鉴了 TCMalloc 的设计实现高速的内存分配,它的核心理念是使用多级缓存根据将对象根据大小分类,并按照类别实施不同的分配策略。
对象大小
Go 语言的内存分配器会根据申请分配的内存大小选择不同的处理逻辑,运行时根据对象的大小将对象分成微对象、小对象和大对象三种:
类别 |
大小 |
微对象 |
(0, 16B) |
小对象 |
[16B, 32KB] |
大对象 |
(32KB, +∞) |
表 7-1 对象的类别和大小
因为程序中的绝大多数对象的大小都在 32KB 以下,而申请的内存大小影响 Go 语言运行时分配内存的过程和开销,所以分别处理大对象和小对象有利于提高内存分配器的性能。
多级缓存
内存分配器不仅会区别对待大小不同的对象,还会将内存分成不同的级别分别管理,TCMalloc 和 Go 运行时分配器都会引入线程缓存(Thread Cache)、中心缓存(Central Cache)和页堆(Page Heap)三个组件分级管理内存:
multi-level-cache
图 7-6 多级缓存内存分配
线程缓存属于每一个独立的线程,它能够满足线程上绝大多数的内存分配需求,因为不涉及多线程,所以也不需要使用互斥锁来保护内存,这能够减少锁竞争带来的性能损耗。当线程缓存不能满足需求时,就会使用中心缓存作为补充解决小对象的内存分配问题;在遇到 32KB 以上的对象时,内存分配器就会选择页堆直接分配大量的内存。
这种多层级的内存分配设计与计算机操作系统中的多级缓存也有些类似,因为多数的对象都是小对象,我们可以通过线程缓存和中心缓存提供足够的内存空间,发现资源不足时就从上一级组件中获取更多的内存资源。
虚拟内存布局
这里会介绍 Go 语言堆区内存地址空间的设计以及演进过程,在 Go 语言 1.10 以前的版本,堆区的内存空间都是连续的;但是在 1.11 版本,Go 团队使用稀疏的堆内存空间替代了连续的内存,解决了连续内存带来的限制以及在特殊场景下可能出现的问题。
线性内存
Go 语言程序的 1.10 版本在启动时会初始化整片虚拟内存区域,如下所示的三个区域 spans
、bitmap
和 arena
分别预留了 512MB、16GB 以及 512GB 的内存空间,这些内存并不是真正存在的物理内存,而是虚拟内存:
heap-before-go-1-11
图 7-7 堆区的线性内存
-
spans
区域存储了指向内存管理单元 runtime.mspan
的指针,每个内存单元会管理几页的内存空间,每页大小为 8KB;
-
bitmap
用于标识 arena
区域中的那些地址保存了对象,位图中的每个字节都会表示堆区中的 32 字节是否包含空闲;
-
arena
区域是真正的堆区,运行时会将 8KB 看做一页,这些内存页中存储了所有在堆上初始化的对象;
对于任意一个地址,我们都可以根据 arena
的基地址计算该地址所在的页数并通过 spans
数组获得管理该片内存的管理单元 runtime.mspan
,spans
数组中多个连续的位置可能对应同一个 runtime.mspan
。
Go 语言在垃圾回收时会根据指针的地址判断对象是否在堆中,并通过上一段中介绍的过程找到管理该对象的 runtime.mspan
。这些都建立在堆区的内存是连续的这一假设上。这种设计虽然简单并且方便,但是在 C 和 Go 混合使用时会导致程序崩溃:
- 分配的内存地址会发生冲突,导致堆的初始化和扩容失败[^3];
- 没有被预留的大块内存可能会被分配给 C 语言的二进制,导致扩容后的堆不连续[^4];
线性的堆内存需要预留大块的内存空间,但是申请大块的内存空间而不使用是不切实际的,不预留内存空间却会在特殊场景下造成程序崩溃。虽然连续内存的实现比较简单,但是这些问题我们也没有办法忽略。
稀疏内存
稀疏内存是 Go 语言在 1.11 中提出的方案,使用稀疏的内存布局不仅能移除堆大小的上限[^5],还能解决 C 和 Go 混合使用时的地址空间冲突问题[^6]。不过因为基于稀疏内存的内存管理失去了内存的连续性这一假设,这也使内存管理变得更加复杂:
heap-after-go-1-11
图 7-8 二维稀疏内存
如上图所示,运行时使用二维的 runtime.heapArena
数组管理所有的内存,每个单元都会管理 64MB 的内存空间:
type heapArena struct {
bitmap [heapArenaBitmapBytes]byte
spans [pagesPerArena]*mspan
pageInUse [pagesPerArena / 8]uint8
pageMarks [pagesPerArena / 8]uint8
![image](https://upload-images.jianshu.io/upload_images/7898366-50dc64be76b71ef9?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
zeroedBase uintptr
}
该结构体中的 bitmap
和 spans
与线性内存中的 bitmap
和 spans
区域一一对应,zeroedBase
字段指向了该结构体管理的内存的基地址。这种设计将原有的连续大内存切分成稀疏的小内存,而用于管理这些内存的元信息也被切分成了小块。
不同平台和架构的二维数组大小可能完全不同,如果我们的 Go 语言服务在 Linux 的 x86-64 架构上运行,二维数组的一维大小会是 1,而二维大小是 4,194,304,因为每一个指针占用 8 字节的内存空间,所以元信息的总大小为 32MB。由于每个 runtime.heapArena
都会管理 64MB 的内存,整个堆区最多可以管理 256TB 的内存,这比之前的 512GB 多好几个数量级。
Go 语言团队在 1.11 版本中通过以下几个提交将线性内存变成稀疏内存,移除了 512GB 的内存上限以及堆区内存连续性的假设:
- runtime: use sparse mappings for the heap
- runtime: fix various contiguous bitmap assumptions
- runtime: make the heap bitmap sparse
- runtime: abstract remaining mheap.spans access
- runtime: make span map sparse
- runtime: eliminate most uses of mheap_.arena_*
- runtime: remove non-reserved heap logic
- runtime: move comment about address space sizes to malloc.go
由于内存的管理变得更加复杂,上述改动对垃圾回收稍有影响,大约会增加 1% 的垃圾回收开销,不过这也是我们为了解决已有问题必须付出的成本[^7]。
地址空间
因为所有的内存最终都是要从操作系统中申请的,所以 Go 语言的运行时构建了操作系统的内存管理抽象层,该抽象层将运行时管理的地址空间分成以下的四种状态[^8]:
状态 |
解释 |
None |
内存没有被保留或者映射,是地址空间的默认状态 |
Reserved |
运行时持有该地址空间,但是访问该内存会导致错误 |
Prepared |
内存被保留,一般没有对应的物理内存 |
访问该片内存的行为是未定义的
可以快速转换到 Ready
状态 |
| Ready
| 可以被安全访问 |
表 7-2 地址空间的状态
每一个不同的操作系统都会包含一组特定的方法,这些方法可以让内存地址空间在不同的状态之间做出转换,我们可以通过下图了解不同状态之间的转换过程:
memory-regions-states-and-transitions
图 7-9 地址空间的状态转换
运行时中包含多个操作系统对状态转换方法的实现,所有的实现都包含在以 mem_
开头的文件中,本节将介绍 Linux 操作系统对上图中方法的实现:
-
runtime.sysAlloc
会从操作系统中获取一大块可用的内存空间,可能为几百 KB 或者几 MB;
-
runtime.sysFree
会在程序发生内存不足(Out-of Memory,OOM)时调用并无条件地返回内存;
-
runtime.sysReserve
会保留操作系统中的一片内存区域,对这片内存的访问会触发异常;
-
runtime.sysMap
保证内存区域可以快速转换至准备就绪;
-
runtime.sysUsed
通知操作系统应用程序需要使用该内存区域,需要保证内存区域可以安全访问;
-
runtime.sysUnused
通知操作系统虚拟内存对应的物理内存已经不再需要了,它可以重用物理内存;
-
runtime.sysFault
将内存区域转换成保留状态,主要用于运行时的调试;
运行时使用 Linux 提供的 mmap
、munmap
和 madvise
等系统调用实现了操作系统的内存管理抽象层,抹平了不同操作系统的差异,为运行时提供了更加方便的接口,除了 Linux 之外,运行时还实现了 BSD、Darwin、Plan9 以及 Windows 等平台上抽象层。
内存管理组件
Go 语言的内存分配器包含内存管理单元、线程缓存、中心缓存和页堆几个重要组件,本节将介绍这几种最重要组件对应的数据结构 runtime.mspan
、runtime.mcache
、runtime.mcentral
和 runtime.mheap
,我们会详细介绍它们在内存分配器中的作用以及实现。
图 7-10 Go 程序的内存布局
所有的 Go 语言程序都会在启动时初始化如上图所示的内存布局,每一个处理器都会被分配一个线程缓存 runtime.mcache
用于处理微对象和小对象的分配,它们会持有内存管理单元 runtime.mspan
。
每个类型的内存管理单元都会管理特定大小的对象,当内存管理单元中不存在空闲对象时,它们会从 runtime.mheap
持有的 134 个中心缓存 runtime.mcentral
中获取新的内存单元,中心缓存属于全局的堆结构体 runtime.mheap
,它会从操作系统中申请内存。
在 amd64 的 Linux 操作系统上,runtime.mheap
会持有 4,194,304 runtime.heapArena
,每一个 runtime.heapArena
都会管理 64MB 的内存,单个 Go 语言程序的内存上限也就是 256TB。
内存管理单元
runtime.mspan
是 Go 语言内存管理的基本单元,该结构体中包含 next
和 prev
两个字段,它们分别指向了前一个和后一个 runtime.mspan
:
type mspan struct { next *mspan prev *mspan ...}
串联后的上述结构体会构成如下双向链表,运行时会使用 runtime.mSpanList
存储双向链表的头结点和尾节点并在线程缓存以及中心缓存中使用。
图 7-11 内存管理单元与双向链表
因为相邻的管理单元会互相引用,所以我们可以从任意一个结构体访问双向链表中的其他节点。
页和内存
每个 runtime.mspan
都管理 npages
个大小为 8KB 的页,这里的页不是操作系统中的内存页,它们是操作系统内存页的整数倍,该结构体会使用下面的这些字段来管理内存页的分配和回收:
type mspan struct { startAddr uintptr // 起始地址 npages uintptr // 页数 freeindex uintptr allocBits *gcBits gcmarkBits *gcBits allocCache uint64 ...}
-
startAddr
和 npages
— 确定该结构体管理的多个页所在的内存,每个页的大小都是 8KB;
-
freeindex
— 扫描页中空闲对象的初始索引;
-
allocBits
和 gcmarkBits
— 分别用于标记内存的占用和回收情况;
-
allocCache
— allocBits
的补码,可以用于快速查找内存中未被使用的内存;
runtime.mspan
会以两种不同的视角看待管理的内存,当结构体管理的内存不足时,运行时会以页为单位向堆申请内存:
mspan-and-pages
图 7-12 内存管理单元与页
当用户程序或者线程向 runtime.mspan
申请内存时,该结构会使用 allocCache
字段以对象为单位在管理的内存中快速查找待分配的空间:
mspan-and-objects
图 7-13 内存管理单元与对象
如果我们能在内存中找到空闲的内存单元,就会直接返回,当内存中不包含空闲的内存时,上一级的组件 runtime.mcache
可能会为该结构体添加更多的内存页以满足为更多对象分配内存的需求。
状态
运行时会使用 runtime.mSpanStateBox
结构体存储内存管理单元的状态 runtime.mSpanState
:
type mspan struct { ... state mSpanStateBox ...}
该状态可能处于 mSpanDead
、mSpanInUse
、mSpanManual
和 mSpanFree
四种情况。当 runtime.mspan
在空闲堆中,它会处于 mSpanFree
状态;当 runtime.mspan
已经被分配时,它会处于 mSpanInUse
、mSpanManual
状态,这些状态会在遵循以下规则发生转换:
- 在垃圾回收的任意阶段,可能从
mSpanFree
转换到 mSpanInUse
和 mSpanManual
;
- 在垃圾回收的清除阶段,可能从
mSpanInUse
和 mSpanManual
转换到 mSpanFree
;
- 在垃圾回收的标记阶段,不能从
mSpanInUse
和 mSpanManual
转换到 mSpanFree
;
设置 runtime.mspan
结构体状态的读写操作必须是原子性的避免垃圾回收造成的线程竞争问题。
跨度类
runtime.spanClass
是 runtime.mspan
结构体的跨度类,它决定了内存管理单元中存储的对象大小和个数:
type mspan struct { ... spanclass spanClass ...}
Go 语言的内存管理模块中一共包含 67 种跨度类,每一个跨度类都会存储特定大小的对象并且包含特定数量的页数以及对象,所有的数据都会被预选计算好并存储在 runtime.class_to_size
和 runtime.class_to_allocnpages
等变量中:
class |
bytes/obj |
bytes/span |
objects |
tail waste |
max waste |
1 |
8 |
8192 |
1024 |
0 |
87.50% |
2 |
16 |
8192 |
512 |
0 |
43.75% |
3 |
32 |
8192 |
256 |
0 |
46.88% |
4 |
48 |
8192 |
170 |
32 |
31.52% |
5 |
64 |
8192 |
128 |
0 |
23.44% |
6 |
80 |
8192 |
102 |
32 |
19.07% |
... |
... |
... |
... |
... |
... |
66 |
32768 |
32768 |
1 |
0 |
12.50% |
表 7-3 跨度类的数据
上表展示了对象大小从 8B 到 32KB,总共 66 种跨度类的大小、存储的对象数以及浪费的内存空间,以表中的第四个跨度类为例,跨度类为 4 的 runtime.mspan
中对象的大小上限为 48 字节、管理 1 个页、最多可以存储 170 个对象。因为内存需要按照页进行管理,所以在尾部会浪费 32 字节的内存,当页中存储的对象都是 33 字节时,最多会浪费 31.52% 的资源: