关注公众号《云爬虫技术研究笔记》,获取更多干货~
号主介绍
多年反爬虫破解经验,AKA“逆向小学生”,沉迷数据分析和黑客增长不能自拔,虚名有CSDN博客专家和华为云享专家。
今天我们的题目是《由一个简单的Python合并字典问题引发的思考,如何优化我们的代码?》
,为什么会有这个话题呢?起因是今天和一位刚刚面试完Python开发
岗位的朋友交流,这个问题也是他在面试中遇到的问题:
怎么用一个简单的表达式合并
Python
中的两个Dict
?
这个问题虽然是一道很简单的问题,并且解题的思路也有很多种。不过问题虽小,但是我们也借此分析一下更深层次的东西,关于代码如何优化
,优化思路
等等。
首先我们简单的思考一下,Python
中合并两个Dict
有哪些方法?我们分别举Python3
和Python2
的例子。
案例
假设我们现在有Dict
XX和Dict
YY,我们想要合并它们得到新的Dict
ZZ,我们会这么做:
- 在Python 3.5或更高版本中:
z = {**x, **y}
- 在Python 2(或3.4或更低版本)中,编写一个函数:
def merge_two_dicts(x, y):
z = x.copy() # start with x's keys and values
z.update(y) # modifies z with y's keys and values & returns None
return z
z = merge_two_dicts(x, y)
Python3.5版本以上方法分析
假设我们有两个字典,并且想要将它们合并为新字典而不更改原始字典:
x = {'a': 1, 'b': 2}
y = {'b': 3, 'c': 4}
理想的结果是获得一个z
是合并后的新字典,第二个Dict
的值覆盖第一个字典Dict
的值。
>>> z
{'a': 1, 'b': 3, 'c': 4}
在PEP 448中提出并从Python 3.5开始可用的新语法是:
z = {**x, **y}
它只需要一个非常简洁的表达式就可以完成,另外,我们也可以使用解包来进行操作:
z = {**x, 'foo': 1, 'bar': 2, **y}
结果如下:
>>> z
{'a': 1, 'b': 3, 'foo': 1, 'bar': 2, 'c': 4}
它现在正式的在3.5的发布时间表中实现,PEP 478,并且已进入Python 3.5的新功能文档。
我们大致看一下这个新功能的使用方式
这个功能允许我们在同一个表达式中使用多个解包表达式,能够很方便的合并迭代器和普通的列表,而不需要将迭代器先转化成列表再进行合并。
但是,由于许多组织仍在使用Python 2
,因此我们可能希望以向后兼容的方式进行操作。在Python 2
和Python 3.0-3.4
中可用的经典Pythonic
方法是分两个步骤完成的:
z = x.copy()
z.update(y) # which returns None since it mutates z
这种方法中,我们拷贝x
生成新的对象z
,再使用dict
的update
的方法合并两个dict
。
Python3.5版本以下方法分析
如果我们尚未使用Python 3.5,或者需要编写向后兼容的代码,并且希望在单个表达式中使用它,则最有效的方法是将其放入函数中:
def merge_two_dicts(x, y):
"""Given two dicts, merge them into a new dict as a shallow copy."""
z = x.copy()
z.update(y)
return z
然后我们需要这样使用函数:
z = merge_two_dicts(x, y)
您还可以创建一个合并多个dict
的函数,并且我们可以指定任意数量的dict
:
def merge_dicts(*dict_args):
"""
Given any number of dicts, shallow copy and merge into a new dict,
precedence goes to key value pairs in latter dicts.
"""
result = {}
for dictionary in dict_args:
result.update(dictionary)
return result
此函数将在Python 2
和3
中适用于所有字典。我们可以这样使用:
z = merge_dicts(a, b, c, d, e, f, g)
不过注意的是:越往后的dict
的键值优先度越高,会覆盖前面的键值。
发散脑洞,我们想象其他回答
在Python 2
中,我们还可以这么操作:
z = dict(x.items() + y.items())
在Python 2
中,我们使用.items()
会得到list
,也就是我们将会在内存中创建两个列表,然后在内存中创建第三个列表,其长度等于前两个字典的长度,最后丢弃所有三个列表以创建字典,就是我们需要的Dict
。
但是注意,我们决不能在Python 3
中这么使用,在Python 3
中,这会失败失败是因为我们是将两个dict_items
对象而不是两个列表加在一起。
>>> c = dict(a.items() + b.items())
Traceback (most recent call last):
File "", line 1, in
TypeError: unsupported operand type(s) for +: 'dict_items' and 'dict_items'
当然,我们真的想要实现的话,我们也可以强制转换,将它们明确创建为列表,例如z = dict(list(x.items()) + list(y.items()))
,但是这反而浪费了资源和计算能力。
类似地,当值是不可散列的对象(例如列表)时,items()
在Python 3(viewitems()
在Python 2.7中)进行联合也将失败。即使您的值是可哈希的,由于集合在语义上是无序的,因此关于优先级的行为是不确定的。所以不要这样做:
>>> c = dict(a.items() | b.items())
我们演示一下值不可散列时会发生的情况:
>>> x = {'a': []}
>>> y = {'b': []}
>>> dict(x.items() | y.items())
Traceback (most recent call last):
File "", line 1, in
TypeError: unhashable type: 'list'
这是一个示例,其中y
应该优先,但是由于集合的任意顺序,保留了x
的值:
>>> x = {'a': 2}
>>> y = {'a': 1}
>>> x.items() | y.items()
{('a', 1), ('a', 2)}
>>> dict(x.items() | y.items())
{'a': 2}
另外一种我们不应该使用的另一种技巧:
z = dict(x, **y)
这使用了dict
构造函数,并且非常快速且具有内存效率(甚至比我们的两步过程略高),但是除非我们确切地知道里面正在发生什么(也就是说,第二个dict
作为关键字参数传递给dict
,构造函数)我们才能使用,要不然这个表达式很难阅读,有时我们并不能很快的理解这算什么用法,因此不算Pythonic
。
由于这种情况的存在,我们看看在django中修复的用法示例。
字典旨在获取可散列的键(例如,frozenset
或tuple
),但是当键不是字符串时,此方法在Python 3
中失败。
>>> c = dict(a, **b)
Traceback (most recent call last):
File "", line 1, in
TypeError: keyword arguments must be strings
在邮件列表中,大佬Guido van Rossum
写道:
我宣布dict({},** {1:3})是非法的使用方式,因为这是对**机制的滥用。
显然dict(x,** y)和直接调用x.update(y)并返回x这种“酷”的操作很类似。
但是我个人觉得它比“酷”的操作更低俗。
不过根据我的理解(以及对大佬的话的理解),dict(**y)
命令的预期用途是为了创建可读性强的字典,例如:
dict(a=1, b=10, c=11)
用来代替
{'a': 1, 'b': 10, 'c': 11}
在这个地方使用**运算符
也不会滥用该机制,我们使用**
正是为了将dict
作为关键字传递而设计的。
最后看看那些性能较差的实现方案
这些方法的性能较差,但是它们将提供正确的行为。它们的性能将不及copy
和update
或新的解包方式
,因为它们在更高的抽象级别上遍历每个键值对,但它们确实遵循优先级的顺序(后者决定了优先级)
- 我们可以在使用生成式来做:
{k: v for d in dicts for k, v in d.items()} # iteritems in Python 2.7
或在python 2.6
中(也许在引入生成器表达式时早在2.4
中):
dict((k, v) for d in dicts for k, v in d.items())
itertools.chain
迭代器的骚操作
:
import itertools
z = dict(itertools.chain(x.iteritems(), y.iteritems()))
ChainMap
的骚操作
:
>>> from collections import ChainMap
>>> x = {'a':1, 'b': 2}
>>> y = {'b':10, 'c': 11}
>>> z = ChainMap({}, y, x)
>>> for k, v in z.items():
print(k, '-->', v)
a --> 1
b --> 10
c --> 11
我们做做时间分析
我将仅对已知行为正确的用法进行性能分析。
import timeit
在Ubuntu 18
上完成以下操作
在Python 2.7
(系统Python
)中:
>>> min(timeit.repeat(lambda: merge_two_dicts(x, y)))
0.5726828575134277
>>> min(timeit.repeat(lambda: {k: v for d in (x, y) for k, v in d.items()} ))
1.163769006729126
>>> min(timeit.repeat(lambda: dict(itertools.chain(x.iteritems(), y.iteritems()))))
1.1614501476287842
>>> min(timeit.repeat(lambda: dict((k, v) for d in (x, y) for k, v in d.items())))
2.2345519065856934
在Python 3.5
中:
>>> min(timeit.repeat(lambda: {**x, **y}))
0.4094954460160807
>>> min(timeit.repeat(lambda: merge_two_dicts(x, y)))
0.7881555100320838
>>> min(timeit.repeat(lambda: {k: v for d in (x, y) for k, v in d.items()} ))
1.4525277839857154
>>> min(timeit.repeat(lambda: dict(itertools.chain(x.items(), y.items()))))
2.3143140770262107
>>> min(timeit.repeat(lambda: dict((k, v) for d in (x, y) for k, v in d.items())))
3.2069112799945287
结论
经过我们之前的一系列分析和实验,我们可以得到这个问题的结论
-
Python 2
中我们就采用copy
加上update
的方案 -
Python 3
中我们就采用多重解包
的方案
不过对比以上两种,显然多重解包
更快而且更简洁,针对大家不熟悉Python 3
可以参考我之前的一篇文章Python2寿命只剩一个月啦!还不快赶紧学起Python3酷炫到爆的新特性!,可以帮助大家快速的切换成Python 3
开发,不过注意的是Python 3
高版本和Python 2.7
差别也是比较大,因此大家要是涉及线上业务的切换,请谨慎注意
!
最后我们来谈谈优化代码的问题,从这个问题入手,我们可以总结出优化代码的思路:
- 我们分析出有哪些解决方案?
- 哪些解决方案是有效的?
- 这些有效的方案怎么做对比?
- 最佳的方案需要我们做出哪些牺牲?