当您的项目规模越来越大时,高效管理内存资源就成为必然要求。遗憾的是,Python,尤其是与 C 或 C++ 等低级语言相比,似乎内存效率不够高。现在是否应该更换编程语言?当然不是。事实上,从优秀的模块和工具到先进的数据结构和算法,有很多方法可以显著优化 Python 程序的内存使用。
本文将重点介绍 Python 的内置机制,并介绍 7 种原始但有效的内存优化技巧。掌握这些技巧将大大提高你的 Python 编程能力。
__slots__
Python 作为一种动态类型编程语言,在 OOP 方面有更大的灵活性。在运行时向 Python 类中添加额外的属性和方法就是一个很好的例子。
例如,下面的代码定义了一个名为 Author 的类。它最初有两个属性 name 和 age。但我们可以在稍后轻松地添加一个额外的属性:
class Author:
def __init__(self, name, age):
self.name = name
self.age = age
me = Author('Yang Zhou', 30)
me.job = 'Software Engineer'
print(me.job)
# Software Engineer
然而,任何硬币都有两面。这种灵活性会浪费更多内存。
因为 Python 中每个类的实例都会维护一个特殊的字典 (__dict__
),用于存储实例变量。由于字典的底层是基于哈希表的实现,因此字典本身的内存效率很低,因此字典会消耗大量内存。
在大多数情况下,我们不需要在运行时更改实例的变量或方法,而且在类定义之后,__dict__
也不会被更改。因此,我们最好不要维护 __dict__
字典。
Python 为此提供了一个神奇的属性:__slots__
。
它通过指定类的所有有效属性的名称,起到白名单的作用:
class Author:
__slots__ = ('name', 'age')
def __init__(self, name, age):
self.name = name
self.age = age
me = Author('Yang Zhou', 30)
me.job = 'Software Engineer'
print(me.job)
# AttributeError: 'Author' object has no attribute 'job'
就像上面的代码,我们不能再在运行时添加工作属性了。因为 __slots__
白名单只定义了 name
和 age
两个有效属性。
从理论上讲,由于属性是固定的,Python 不需要为它维护一个字典。它只需为 __slots__
中定义的属性分配必要的内存空间即可。
让我们写一个简单的比较程序来看看它是否真的可以这样工作:
import sys
class Author:
def __init__(self, name, age):
self.name = name
self.age = age
class AuthorWithSlots:
__slots__ = ['name', 'age']
def __init__(self, name, age):
self.name = name
self.age = age
# Creating instances
me = Author('Yang', 30)
me_with_slots = AuthorWithSlots('Yang', 30)
# Comparing memory usage
memory_without_slots = sys.getsizeof(me) + sys.getsizeof(me.__dict__)
memory_with_slots = sys.getsizeof(me_with_slots) # __slots__ classes don't have __dict__
print(memory_without_slots, memory_with_slots)
# 152 48
print(me.__dict__)
# {'name': 'Yang', 'age': 30}
print(me_with_slots.__dict__)
# AttributeError: 'AuthorWithSlots' object has no attribute '__dict__'
如上面的代码所示,由于使用了 __slots__
,实例 me_with_slots
没有__dict__
字典。与需要保存额外字典的 me
实例相比,它有效地节省了内存资源。
生成器是 Python 中列表的懒版本。它们的工作方式类似于元素生成工厂:每当调用 next()
方法时就生成一个项,而不是一次性计算所有项。因此,在处理大型数据集时,它们非常节省内存。
def number_generator():
for i in range(100):
yield i
numbers = number_generator()
print(numbers)
#
print(next(numbers))
# 0
print(next(numbers))
# 1
上面的代码展示了一个编写和使用生成器的基本示例。关键字 yield
是生成器定义的核心。使用它意味着只有在调用 next()
方法时,才会产生项目 i
。
现在,让我们比较一下生成器和列表,看看哪一个更节省内存:
import sys
numbers = []
for i in range(100):
numbers.append(i)
def number_generator():
for i in range(100):
yield i
numbers_generator = number_generator()
print(sys.getsizeof(numbers_generator))
# 112
print(sys.getsizeof(numbers))
# 920
上述程序的结果证明,使用生成器可以大大节省内存使用量。
顺便提一下,如果我们把 list
理解的方括号转换成小括号,它就会变成一个生成器表达式。这是在 Python 中定义生成器的一种更简单的方法:
import sys
numbers = [i for i in range(100)]
numbers_generator = (i for i in range(100))
print(sys.getsizeof(numbers_generator))
# 112
print(sys.getsizeof(numbers))
# 920
内存映射文件 I/O,简称 mmap
,是一种操作系统级优化。
维基百科:它实现了需求分页,因为文件内容不会立即从磁盘读取,最初根本不使用物理 RAM。从磁盘实际读取的操作是在访问特定位置后,以一种懒惰的方式进行的。
简单地说,当使用 mmap
技术对文件进行内存映射时,它会直接在当前进程的虚拟内存空间中创建文件的映射,而不是将整个文件加载到内存中。映射而不是加载整个文件可以节省大量内存。
看起来很复杂?幸运的是,Python 已经提供了使用这种技术的内置模块,因此我们可以轻松利用它,而无需考虑操作系统级的实现。
例如,在 Python 中如何使用 mmap
进行文件处理:
import mmap
with open('test.txt', "r+b") as f:
# memory-map the file, size 0 means whole file
with mmap.mmap(f.fileno(), 0) as mm:
# read content via standard file methods
print(mm.read())
# read content via slice notation
snippet = mm[0:10]
print(snippet.decode('utf-8'))
如上所述,Python 使内存映射文件 I/O 技术的使用变得非常方便。我们需要做的仅仅是应用 mmap.mmap()
方法,然后使用标准文件方法甚至切片符号来处理打开的对象。
全局变量具有全局作用域,因此只要程序运行,全局变量就会一直保留在内存中。
因此,如果一个全局变量包含一个大型数据结构,它就会在整个程序生命周期中占用内存,从而可能导致内存使用效率低下。
我们应该在 Python 代码中尽量减少全局变量的使用。
这个技巧看似微妙,但巧妙地使用它将极大地节省程序的内存使用量。
例如,下面是一个简单的代码片段,它根据两个函数返回的布尔值得到最终结果:
result_a = expensive_function_a()
result_b = expensive_function_b()
result = result_a if result_a else result_b
上述代码可以正常运行,但它实际上执行了两个内存不足的函数。
获得相同结果的更聪明的方法如下:
result = expensive_function1() or expensive_function2()
由于逻辑运算符遵循短路评估规则,如果 expensive_function1()
为 True
,则不会执行上述代码中的 expensive_function2()
。这将节省不必要的内存使用。
资深的 Python 开发人员会谨慎而精确地选择数据类型。因为在某些情况下,使用一种数据类型比使用另一种数据类型更节省内存。
鉴于元组是不可变的(创建后不能更改),它允许 Python 在内存分配方面进行优化。然而,列表是可变的,因此需要额外的空间来容纳潜在的修改。
import sys
my_tuple = (1, 2, 3, 4, 5)
my_list = [1, 2, 3, 4, 5]
print(sys.getsizeof(my_tuple))
# 80
print(sys.getsizeof(my_list))
# 120
如上面的代码段所示,即使包含相同的元素,元组 my_tuple
使用的内存也比 list
少。
因此,如果在创建后不需要更改数据,我们应该首选元组而不是列表。
Python 中的数组要求元素具有相同的数据类型(例如,所有整数或所有浮点数),但列表可以存储不同类型的对象,这就不可避免地需要更多内存。
因此,如果列表的元素都是同一类型,使用数组会更节省内存:
import sys
import array
my_list = [i for i in range(1000)]
my_array = array.array('i', [i for i in range(1000)])
print(sys.getsizeof(my_list))
# 8856
print(sys.getsizeof(my_array))
# 4064
Python 是数据科学的统治语言。有许多强大的第三方模块和工具提供了更多的数据类型,如 NumPy 和 Pandas。
如果我们只需要一个简单的一维数组,而不需要 NumPy 提供的广泛功能,那么 Python 的内置数组可能是一个不错的选择。
但如果需要进行复杂的矩阵操作,使用 NumPy 提供的数组可能是所有数据科学家的首选,也可能是最佳选择。
下面的代码会让很多开发人员感到困惑:
>>> a = 'Y'*4096
>>> b = 'Y'*4096
>>> a is b
True
>>> c = 'Y'*4097
>>> d = 'Y'*4097
>>> c is d
False
我们知道,is
运算符用于检查两个变量是否指向内存中的同一个对象。它与 ==
运算符不同,后者用于比较两个对象是否具有相同的值。
那么,为什么 a is b
得到的是 True
,而 c is d
得到的却是 False
呢?
如果有几个小字符串的值相同,Python 就会隐式地对它们进行内联,并引用内存中的同一个对象。
定义小字符串的神奇数字是 4096。因为 c 和 d 的长度都是 4097,所以它们在内存中是两个对象,而不是一个。不再有隐式字符串互调。因此,当执行 c 是 d 时,我们会得到一个 False。
字符串互调是一种优化内存使用的强大技术。如果我们想显式地进行字符串互调,sys.intern()
方法就很好用:
>>> import sys
>>> c = sys.intern('Y'*4097)
>>> d = sys.intern('Y'*4097)
>>> c is d
True
顺便说一下,除了字符串互调,Python 还将互调技巧应用于小整数。我们还可以利用它来优化内存。