Python 3最重要的新特性之一是对字符串和二进制数据流做了明确的区分。文本总是Unicode
,由str
类型表示,二进制数据则由bytes
类型表示。Python 3不会以任意隐式的方式混用str
和bytes
,你不能拼接字符串和字节流,也无法在字节流里搜索字符串(反之亦然),也不能将字符串传入参数为字节流的函数(反之亦然)。
下面让我们深入分析一下二者的区别和联系。
在谈bytes
和str
之前,需要先说说关于编码是如何发展的。。
在计算机历史的早期,美国为代表的英语系国家主导了整个计算机行业,26个英文字母组成了多样的英语单词、语句、文章。因此,最早的字符编码规范是ASCII码,一种8位即1个字节的编码规范,它可以涵盖整个英语系的编码需要。
编码是什么?编码就是把一个字符用一个二进制来表示。我们都知道,所有的东西,不管是英文、中文还是符号等等,最终存储在磁盘上都是01010101这类东西。在计算机内部,读取和存储数据归根结底,处理的都是0和1组成的比特流。问题来了,人类看不懂这些比特流,如何让这些010101对人类变得可读呢?于是出现了字符编码,它是个翻译机,在计算机内部某个地方,透明的帮我们将比特流翻译成人类可以直接理解的文字。对于一般用户,不需要知道这个过程是什么原理,是怎么执行的。但是对于程序员却是个必须搞清楚的问题。
以ASCII
编码为例,它规定1个字节8个比特位代表1个字符的编码,也就是“00000000”这么宽,一个一个字节的解读。例如:01000001表示大写字母A,有时我们会“偷懒"的用65这个十进制来表示A在ASCII
中的编码。8个比特位,可以没有重复的最多表示2的8次方(255)个字符。
后来,计算机得到普及,中文、日文、韩文等等国家的文字需要在计算机内表示,ASCII的255位远远不够,于是标准组织制定出了叫做UNICODE的万国码,它规定任何一个字符(不管哪国的)至少以2个字节表示,可以更多。其中,英文字母就是用2个字节,而汉字是3个字节。这个编码虽然很好,满足了所有人的要求,但是它不兼容ASCII
,同时还占用较多的空间和内存。因为,在计算机世界更多的字符是英文字母,明明可以1个字节就能够表示,非要用2个。
于是UTF-8
编码应运而生,它规定英文字母系列用1个字节表示,汉字用3个字节表示等等。因此,它兼容ASCII
,可以解码早期的文档。UTF-8
很快就得到了广泛的应用。(现在大部分都是utf-8)
在编码的发展历程中,我国还创造了自己的编码方式,例如GBK
,GB2312
,BIG5
。他们只局限于在国内使用,不被国外认可。在GBK
编码中,中文汉字占2个字节。
回到bytes
和str
的身上。bytes
是一种比特流,它的存在形式是01010001110这种。我们无论是在写代码,还是阅读文章的过程中,肯定不会有人直接阅读这种比特流,它必须有一个编码方式,使得它变成有意义的比特流,而不是一堆晦涩难懂的01组合。因为编码方式的不同,对这个比特流的解读也会不同,对实际使用造成了很大的困扰。下面让我们看看Python是如何处理这一系列编码问题的:
>>> s = "中文"
>>> s
'中文'
>>> type(s)
>>> b = bytes(s, encoding='utf-8')
>>> b
b'\xe4\xb8\xad\xe6\x96\x87' #\x 代表是十六进制
>>> type(b)
从例子可以看出,s
是个字符串类型。Python有个内置函数bytes()
可以将字符串str
类型转换成bytes
类型,b
实际上是一串01的组合,但为了在ide环境中让我们相对直观的观察,它被表现成了b'\xe4\xb8\xad\xe6\x96\x87'
这种形式,开头的b
表示这是一个bytes
类型。\xe4
是十六进制的表示方式,它占用1个字节的长度,因此”中文“被编码成utf-8
后,我们可以数得出一共用了6个字节,每个汉字占用3个,这印证了上面的论述。在使用内置函数bytes()
的时候,必须明确encoding
的参数(意思是按什么编码方式编成存储的二进制),不可省略。
我们都知道,字符串类str
里有一个encode()
方法,它是从字符串向比特流的编码过程。而bytes
类型恰好有个decode()
方法,它是从比特流向字符串解码的过程。除此之外,我们查看Python源码会发现bytes
和str
拥有几乎一模一样的方法列表,最大的区别就是encode
和decode
。
从实质上来说,字符串在磁盘上的保存形式也是01的组合,也需要编码解码。
如果,上面的阐述还不能让你搞清楚两者的区别,那么记住下面两几句话:
在将字符串存入磁盘和从磁盘读取字符串的过程中,Python自动地帮你完成了编码和解码的工作,你不需要关心它的过程。
使用bytes
类型,实质上是告诉Python,不需要它帮你自动地完成编码和解码的工作,而是用户自己手动进行,并指定编码格式。
Python已经严格区分了bytes
和str
两种数据类型,你不能在需要bytes
类型参数的时候使用str
参数,反之亦然。这点在读写磁盘文件时容易碰到。
在bytes和str的互相转换过程中,实际就是编码解码的过程,必须显式地指定编码格式。
>>> b
b'\xe4\xb8\xad\xe6\x96\x87'
>>> type(b)
>>> s1 = str(b)
>>> s1
"b'\\xe4\\xb8\\xad\\xe6\\x96\\x87'" #变成这样子的串了。
>>> type(s1)
>>> s1 = str(b, encoding='utf-8') #这样是对的
>>> s1
'中文'
>>> type(s1)
我们再把字符串s1,转换成gbk编码的bytes类型:
>>> s1
'中文'
>>> type(s1)
>>> b = bytes(s1, encoding='gbk')
>>> b
b'\xd6\xd0\xce\xc4'
从str到bytes,是编码, 比特流=str(串,encoding='utf-8')
从bytes到str,是解码,串=bytes(比特流,encoding='utf-8')
为什么英文显示是b'hello'呢,因为英文里,utf-8和ASCII是兼容的,所以只是显示为b'hello',其实也是数字
'''中文编码'''
>>> a='中文'
>>> type(a)
str
>>> b=bytes(a,encoding='utf-8')
>>> b
b'\xe4\xb8\xad\xe6\x96\x87' #变成了utf-8的编码格式
'''中文解码'''
>>> c=str(b,encoding='utf-8')
>>> type(c)
str
>>> c
'中文' #解码后变成str
'''英文编码,因为英文里,utf-8和ASCII是兼容的,所以显示b'hello',其实也是数字'''
>>> a='hello'
>>> b=bytes(a,encoding='utf-8')
>>> b
b'hello'
>>> len(b)
5
'''英文解码'''
>>> a=b'hello'
>>> type(a)
bytes
>>> b=str(a,encoding='utf-8')
>>> b
'hello'
编码可以将抽象字符以二进制数据的形式表示,有很多编码方法,如utf-8、gbk等,可以使用encode()函数对字符串进行编码,转换成二进制字节数据,也可用decode()函数将字节解码成字符串;用decode()函数解码,英文可不要用指定编码格式,中文需要指定解码方式;
'''中文编码'''
>>> a='中文'
>>> type(a)
str
>>> b=a.encode(encoding='utf-8')
>>> b
b'\xe4\xb8\xad\xe6\x96\x87'
'''中文解码'''
>>> c=b.decode(encoding='utf-8')
>>> c
'中文'
'''可以省略解码格式'''
>>> d=b.decode()
>>> d
'中文'
'''英文编码'''
>>> a='hello'
>>> b=a.encode(encoding='utf-8')
>>> b
b'hello'
'''英文解码
>>> c=b.decode('utf-8')
>>> c
'hello'
>>> a = '中文'
>>> x = a.encode(encoding='gbk')
>>> x
b'\xd6\xd0\xce\xc4' '''发现是4个字符,说明gbk是用两个字节表示一个汉字'''
>>> y = x.decode()
'''错误,无法解码出来,说明中文的默认解码方式是utf-8'''
>>> y = x.decode(encoding='gbk')
>>> y
'中文'
>>> a = 'hello'
>>> x = a.encode(encoding='gbk')
>>> x
b'hello'
>>> y = x.decode() '''发现英文可以解码出来'''
>>> y
'hello'
硬盘中一般编码都是uft-8,而在内存中采用unicode编码方式。
python中的str其实显示的就是读取unicode,str的内存格式就是unicode,所以理解为str就是unicode,unicode就是str。
另外而utf-8与unicode编码中的字符部分的编码方式是一样的,所以英文显示没有区别。
path="doc.txt"
f=open(path,'rb')
raw=f.read()
print(raw[:100])
print(len(raw))
print(type(raw))
raw1=str(raw)
print(raw1[:100])
print(len(raw1))
print(type(raw1))
tokens=word_tokenize(raw1)
print(len(tokens))
print(tokens[:20])
b'the rock is destined to be the 21st century\'s new " conan " and that he\'s going to make a splash eve'
626168
b'the rock is destined to be the 21st century\'s new " conan " and that he\'s going to make a splash
634857
115104
["b'the", 'rock', 'is', 'destined', 'to', 'be', 'the', '21st', 'century\\', "'s", 'new', '``', 'conan', '``', 'and', 'that', 'he\\', "'s", 'going', 'to']
from nltk import word_tokenize
path="doc.txt"
f=open(path,'rb')
raw=f.read()
print(raw[:1000])
print(len(raw))
print(type(raw))
raw=raw[:1000]
raw1= raw.decode(encoding='utf-8') #在4000多的位置上有无法解码的,也就是说解码方式是有问题的,应该不是utf-8
print(raw1[:1000])
print(len(raw1))
print(type(raw1))
b'the rock is destined to be the 21st century\'s new " conan " and that he\'s going to make a splash even greater than arnold schwarzenegger , jean-claud van damme or steven segal . \nthe gorgeously elaborate continuation of " the lord of the rings " trilogy is so huge that a column of words cannot adequately describe co-writer/director peter jackson\'s expanded vision of j . r . r . tolkien\'s middle-earth . \neffective but too-tepid biopic\nif you sometimes like to go to the movies to have fun , wasabi is a good place to start . \nemerges as something rare , an issue movie that\'s so honest and keenly observed that it doesn\'t feel like one . \nthe film provides some great insight into the neurotic mindset of all comics -- even those who have reached the absolute top of the game . \noffers that rare combination of entertainment and education . \nperhaps no picture ever made has more literally showed that the road to hell is paved with good intentions . \nsteers turns in a snappy screenplay that curl'
626168
the rock is destined to be the 21st century's new " conan " and that he's going to make a splash even greater than arnold schwarzenegger , jean-claud van damme or steven segal .
the gorgeously elaborate continuation of " the lord of the rings " trilogy is so huge that a column of words cannot adequately describe co-writer/director peter jackson's expanded vision of j . r . r . tolkien's middle-earth .
effective but too-tepid biopic
if you sometimes like to go to the movies to have fun , wasabi is a good place to start .
emerges as something rare , an issue movie that's so honest and keenly observed that it doesn't feel like one .
the film provides some great insight into the neurotic mindset of all comics -- even those who have reached the absolute top of the game .
offers that rare combination of entertainment and education .
perhaps no picture ever made has more literally showed that the road to hell is paved with good intentions .
steers turns in a snappy screenplay that curl
1000
189
['e', 'rock', 'is', 'destined', 'to', 'be', 'the', '21st', 'century', "'s", 'new', '``', 'conan', '``', 'and', 'that', 'he', "'s", 'going', 'to']
将a(字符串)进行编码,当a为中文时,将Unicode编码为b'\\u4f60\\u597d',输入b显示时,python自动假设unicode字符的默认编码方式是ASCII,但ASCII中没有b'\\u4f60\\u597d',所以就直接输出了。
当a为'hello'时,编码为(也是数字),但print时可以按照ASCII的形式显示bytes类型。
>>>a='你好'
>>>b=a.encode('unicode_escape')
>>>b
b'\\u4f60\\u597d'
>>>a='hello'
>>>b=a.encode('unicode_escape')
>>>b
b'hello'