目录
MemTotal
MemFree
MemAvailable
Buffers / Cached
SwapCached
Active
Inactive
Active(anon) / Inactive(anon) / Active(file) / Inactive(file)
Unevictable
Mlocked
SwapTotal
SwapFree
Dirty
Writeback
AnonPages
Mapped
Shmem
Slab
SReclaimable
SUnreclaim
KernelStack
PageTables
NFS_Unstable
Bounce
WritebackTmp
CommitLimit
Committed_AS
VmallocTotal
VmallocUsed
VmallocChunk
HardwareCorrupted
AnonHugePages
ShmemHugePages
ShmemPmdMapped
HugePages_Total
HugePages_Free
HugePages_Rsvd
HugePages_Surp
Hugepagesize
DirectMap4k
DirectMap2M
我们可以从 /proc/meminfo
中查看内核使用内存情况的各种信息。
一个 /proc/meminfo
的内容看起来是这样的:
cat /proc/meminfo |nl
~]# cat /proc/meminfo |nl
1 MemTotal: 132021584 kB
2 MemFree: 664484 kB
3 Buffers: 4688 kB
4 Cached: 124884852 kB
5 SwapCached: 24108 kB
6 Active: 69859252 kB
7 Inactive: 58703444 kB
8 Active(anon): 7807988 kB
9 Inactive(anon): 251700 kB
10 Active(file): 62051264 kB
11 Inactive(file): 58451744 kB
12 Unevictable: 0 kB
13 Mlocked: 0 kB
14 SwapTotal: 50331644 kB
15 SwapFree: 43496332 kB
16 Dirty: 89148 kB
17 Writeback: 0 kB
18 AnonPages: 3669576 kB
19 Mapped: 4385888 kB
20 Shmem: 4376484 kB
21 Slab: 712092 kB
22 SReclaimable: 450812 kB
23 SUnreclaim: 261280 kB
24 KernelStack: 22384 kB
25 PageTables: 414188 kB
26 NFS_Unstable: 0 kB
27 Bounce: 0 kB
28 WritebackTmp: 0 kB
29 CommitLimit: 149347832 kB
30 Committed_AS: 22629796 kB
31 VmallocTotal: 34359738367 kB
32 VmallocUsed: 780376 kB
33 VmallocChunk: 34290339520 kB
34 HardwareCorrupted: 0 kB
35 AnonHugePages: 0 kB
36 HugePages_Total: 0
37 HugePages_Free: 0
38 HugePages_Rsvd: 0
39 HugePages_Surp: 0
40 Hugepagesize: 2048 kB
41 DirectMap4k: 14336 kB
42 DirectMap2M: 2009088 kB
43 DirectMap1G: 132120576 kB
可以看出,这里的内核信息特别多,有些含义很难理解。
下面就来尝试解释一下这些行的意义:
总共安装的物理内存容量
当前空闲的内存量
buffers + cached的值就是可以使用的磁盘告诉缓存的大小。
buffers + cached = Active(file) + Inactive(file) + Shmem
记录在交换缓存上的内容容量。
所谓交换缓存是指,在换入某个内存页之后,物理磁盘上的交换空间依然保留同样的数据,这样的内存页会记录在"交换缓存"的列表上。 这样的好处在于,当需要再次换出记录在交换缓存中的的内存页时,可以直接使用交换分区中保存的内容,而无需将内存再次写入交换空间。
当该交换空间上的其他数据被换出,或是换入内存中的数据被改写,则交换缓存上的记录会被清空。
等于Active(anon) + Active(file)的和
等于Inactive(anon) + Inactive(file)的和
括号中为anon的内存为匿名内存,括号中为file的内存为file-backed内存,这两个内存的区别在于,物理内存的内容是否与物理磁盘上的文件相关联。
其中,匿名内存就是进程中堆上分配的内存,是用malloc分配的内存。
而file-backed内存为磁盘高速缓存的内存空间和“文件映射(将物理磁盘上的文件内容与用户进程的逻辑地址直接关联)”的内存空间,其中的内容与物理磁盘上的文件相对应。
而Active和Inactive的区别在于内存空间中是否包含最近被使用过的数据。当物理内存不足,不得不释放正在使用的内存空间时,会优先释放Inactive的内存空间。
Linux内核中使用4类LRU表来分别记录对应的这4类内存页,内存页一般以4K为一页。
有些内存页是不能被释放的,这些内存页不能放在LRU表中,而是记录到Unevictable标中
交换空间的总大小
交换空间的剩余容量
脏数据,在磁盘缓冲区中尚未写入物理磁盘的内存大小
Linux内核中存在一个rmap(reverse mapping)机制,负责管理匿名内存中每一个物理内存页映射到哪个进程的哪个逻辑地址这样的信息。 这个rmap中记录的内存页总和就是AnonPages的值。
tmpfs所使用的内存.
tmpfs即利用物理内存来提供RAM磁盘的功能。在tmpfs上保存文件时,文件系统会暂时将它们保存到磁盘高速缓存上,因此它是属于磁盘高速缓存对应的"buffers+cached"一类。 但是由于磁盘上并没有与之对应的内容,因此它并记录在File-backed内存对应的LRU列表上,而是记录在匿名内存的LRU表上。 这就是 buffers + cached = Active(file) + Inactive(file) + Shmem
公式的由来
由"Slab分配器"分配的总量。Slab分配器针对一些经常分配并释放的对象(如进程描述符)统计各种数据类型的汇总信息,然后为每种数据类型创建多个由多个内存页组成的Slab(这些Slab组成一个Slab列表)。 再在Slab内部划分成一个个相应数据类型的对象。
当内核要使用某种类型的数据结构时,就从对应的slab列表中分配一个对象出去,而当要释放时,将其重新保存在Slab列表中,从而避免内存碎片。
当可供使用的对象不足时,会使用空闲的内存页来创建并添加新的Slab到对应对象的Slab列表中。 相反,若Slab中所有对象都被内核回收,即所有对象都未使用时,根据需要也可以回收Slab,释放成空闲内存。
从 /proc/slabinfo
中我们可以查看每个Slab的信息:
sudo cat /proc/slabinfo |head
slabinfo - version: 2.1
# name : tunables : slabdata
nf_conntrack 27 72 320 12 1 : tunables 0 0 0 : slabdata 6 6 0
ovl_inode 46 46 688 23 4 : tunables 0 0 0 : slabdata 2 2 0
fuse_request 40 40 400 20 2 : tunables 0 0 0 : slabdata 2 2 0
fuse_inode 19 19 832 19 4 : tunables 0 0 0 : slabdata 1 1 0
xfs_dqtrx 0 0 528 15 2 : tunables 0 0 0 : slabdata 0 0 0
xfs_rui_item 0 0 672 12 2 : tunables 0 0 0 : slabdata 0 0 0
xfs_rud_item 0 0 152 26 1 : tunables 0 0 0 : slabdata 0 0 0
xfs_ili 4486 4488 168 24 1 : tunables 0 0 0 : slabdata 187 187 0
其中:
name
对象名称
active_objs
处于活跃状态的对象个数
num_objs
slab列表中的总对象数量
objperslab
一个slab中包含的对象个数
pageperslab
每个slab占用的内存页数
num_slabs
slab列表中slab的个数
active_slabs
处于活跃状态的slab个数
不存在活跃对象,可以回收的Slab容量
实际中GP seg的这个参数是很小的,说明虽然看到的cache很多但是并不能被回收。
对象处于活跃状态,不能被回收的Slab容量。
可以使用 ps -eo 'pid,rss' --sort=-rss来分析所有进程所占的内存。
KernelStack是内核代码使用的堆栈区域。
由于Linux内核中用户进程在运行过程中需要不断切换,因此内核需要为每个用户进程都设置各自的堆栈区域。 因此,每启动一个新进程,KernelStack的值都会增加。
PageTables就是页表,用于存储各个用户进程的逻辑地址和物理地址的变换关系,它本身也是一个内存区域。
Linux使用内存时,除了使用Slab中配置的对象外,还能直接将空闲内存页映射到逻辑地址上。
这个容量指的是,理论上内核内部可以用来映射的逻辑地址的范围。这个值非常大,但并非实际使用的物理内存
实际上,Linux将空闲内存页映射到逻辑地址上的容量。
值得说明的是,这个容量除了物理内存上所作的映射外,也包括诸如视频卡这样的外部设备内存所作的映射,这类映射叫做"ioremap"
我们可以通过 /proc/vmallocainfo
查看VmallocUsed中包含内存区域的详情
cat /proc/vmallocinfo |head
0x000000008088114a-0x000000001aecb69b 8192 acpi_os_map_iomem+0x14c/0x180 phys=0x00000000bf6bd000 ioremap
0x000000001aecb69b-0x0000000086f9fed7 8192 acpi_os_map_iomem+0x14c/0x180 phys=0x00000000bf6e4000 ioremap
0x0000000086f9fed7-0x000000006fbc598c 8192 acpi_os_map_iomem+0x14c/0x180 phys=0x00000000bf6e2000 ioremap
0x000000006fbc598c-0x00000000636e4cf9 12288 acpi_os_map_iomem+0x14c/0x180 phys=0x00000000bf6e2000 ioremap
0x00000000636e4cf9-0x000000005464ab58 8192 hpet_enable+0x34/0x2c1 phys=0x00000000fed00000 ioremap
0x000000005464ab58-0x00000000396cc741 12288 alloc_large_system_hash+0x194/0x257 pages=2 vmalloc N0=2
0x00000000396cc741-0x0000000038ec28d8 8192 bpf_prog_alloc+0x40/0xb0 pages=1 vmalloc N0=1
0x0000000038ec28d8-0x000000002f686ade 65536 acpi_os_map_iomem+0x14c/0x180 phys=0x00000000bf6bd000 ioremap
0x000000002f686ade-0x00000000fee69f16 4198400 alloc_large_system_hash+0x194/0x257 pages=1024 vmalloc vpages N0=1024
0x00000000fee69f16-0x00000000362aad15 2101248 alloc_large_system_hash+0x194/0x257 pages=512 vmalloc N0=512
其中
所以要计算除ioremap外物理内存的映射量,可以这么计算
sudo cat /proc/vmallocinfo |grep -v "ioremap" |awk '{total=total+$2};END{print total}'
107110400
转载自:http://blog.lujun9972.win/blog/2018/04/17/meminfo%E6%96%87%E4%BB%B6%E8%AF%A6%E8%A7%A3/