python之内存调试

python内存管理知识基础

python内存管理机制具有四层结构:

  1. layer 0:最底层(0层)是C运行的malloc和free接口,往上的三层才是由Python实现并且维护的。
  2. layer 1:第1层则是在第0层的基础之上对其提供的接口进行了统一的封装。
  3. layer 2:Python为了避免频繁的申请和删除内存所造成系统切换于用户态和核心态的开销,在第2层引入了内存池机制,专门用来管理小内存的申请和释放。在Linux上运行过Python服务器的程序都知道,python不会立即将释放的内存归还给操作系统,这就是内存缓冲池的原因。
  4. layer 3:第3层主要是对象缓冲池机制,它基于在第二层的内存池。对于可能被经常使用、而且是immutable的对象,比如较小的整数、长度较短的字符串,python会缓存在layer3,避免频繁创建和销毁。

Python有两种共存的内存管理机制: 引用计数垃圾回收。python的内存回收以引用计数机制为主,引用计数是一种非常高效的内存管理手段, 当一个Python对象被引用时其引用计数增加1, 当其不再被一个变量引用时则计数减1,当引用计数等于0时对象被删除。引用计数的优点在于原理通俗易懂,且将对象的回收分布在代码运行时,一旦对象不再被引用,就会被释放掉(be freed),不会造成卡顿。主要缺点是无法自动处理循环引用。

垃圾回收机制用来弥补引用计数的不足,可回收循环引用的对象。垃圾回收机制提供了一些接口:

gc.disable()  # 暂停自动垃圾回收.
gc.collect()  # 执行一次完整的垃圾回收, 返回垃圾回收所找到无法到达的对象的数量.
gc.set_threshold()  # 设置Python垃圾回收的阈值.
gc.set_debug()  # 设置垃圾回收的调试标记. 调试信息会被写入std.err.

垃圾回收机制

Python中, 所有能够引用其他对象的对象都被称为容器(container), 因此只有容器之间才可能形成循环引用。Python的垃圾回收机制利用了这个特点来寻找需要被释放的对象,为了记录下所有的容器对象,Python将每一个 容器都链到了一个双向链表中, 之所以使用双向链表是为了方便快速的在容器集合中插入和删除对象。有了这个维护了所有容器对象的双向链表以后, Python在垃圾回收时使用如下步骤来寻找需要释放的对象:

  1. 对于每一个容器对象, 设置一个gc_refs值, 并将其初始化为该对象的引用计数值.
  2. 对于每一个容器对象, 找到所有其引用的对象, 将被引用对象的gc_refs值减1.
  3. 执行完步骤2以后所有gc_refs值还大于0的对象都被非容器对象引用着, 至少存在一个非循环引用。 因此 不能释放这些对象,将他们放入另一个集合。
  4. 在步骤3中不能被释放的对象, 如果他们引用着某个对象,被引用的对象也是不能被释放的, 因此将这些对象也放入另一个集合中。
  5. 此时还剩下的对象都是无法到达的对象. 现在可以释放这些对象了.

python中应用了分代回收机制 。简单来说就是,将存在时间短的对象容易死掉,而老年的对象不太容易死,这叫做弱代假说(weak generation hypothesis),这也很好理解,一般生命周期长的对象往往是全局变量,而短的多为局部变量或者临时定义的变量。那么,我们把当前的对象作为第0代,我们每当allocation比deallocation多到某个阈值时,就对这些对象做一次检查和清理,没有被清理的那些就存活下来,进入第1代,第一代检查做若干次后,对1代清理,存活下来的进入第2代,第二代也是如此。这样就实现了分代回收的操作。

通过sys.getrefcount(obj)对象可以获得一个对象的引用数目,返回值是真实引用数目加1(加1的原因是obj被当做参数传入了getrefcount函数)。

问题分析背景

最近使用django项目分析一个50M的数据时(并不是一次全部读取到内存),内存在某一时刻突然飙升到2G,并保持到程序执行结束。以下是对内存溢出调试,进行的一些记录。

查阅资料后,发现可用于调试python内存的工具有resource、memory_profiler、objgraph、heap。

1. resource

  • 使用:print(resource.getrusage(resource.RUSAGE_SELF).ru_maxrss))
  • 效果:显示当前进程使用了多少内存,resource.RUSAGE_SELF表示只将自己计算在内,不包括当前进程的子进程,RUSAGE_BOTH相当于当前进程和子进程自己的总和(与平台相关)。不同平台上ru_maxrss的值的单位是不一样的,在OS X上单位是Byte,但是在Linux上单位是KB。

resource模块统计的内存是RSS。

使用该模块在某些函数执行后,打印进程占用的内存,发现了函数A执行后,内存从100M增加到2131880kb,为了更详细地定位到问题,我尝试使用memory_profiler。

2. memory_profiler

2.1 简单使用

memory_profiler统计的内存是RSS。

  • 安装: pip3 install -U memory_profiler,为了提高效率,另外还应该安装pip3 install psutil
  • 使用:用@profile修饰需要查看内存的函数
  • 执行:python main.py
  • 效果:显示被@profile的函数中每一行代码对应的内存增减

以下是代码示例

from memory_profiler import profile

@profile(precision=4)
def my_func():
    a = [1] * (10 ** 6)
    b = [2] * (2 * 10 ** 7)
    del b
    return a

if __name__ == '__main__':
    my_func()

2.2 生成与时间相对应的内存变化图

memory_profiler可以生成内存图,需要先安装pip3 install matplotlib:

 mprof run __main__.py 
 mprof plot

第一个命令将进程的内存使用情况写入mprofile**.dat文件中,第二个命令将生成的文件展示为图。

python之内存调试_第1张图片

我们可以看到,上面的图中,进程使用的最大内存是50M,然而resource模块在函数A中打印的该进程使用的内存为2G,数值差距很大。这是因为,如果存在子进程或者多进程情况,memory_profile只计算主进程的内存占用。需要分别使用以下方式执行:

mprof run --include-children 
                    
                    

你可能感兴趣的:(Python)