python解释器在加载 .py 文件中的代码时,会对内容进行编码(默认ascill)
ASCII(American Standard Code for Information Interchange,美国标准信息交换代码)是基于拉丁字母的一套电脑编码系统,主要用于显示现代英语和其他西欧语言,其最多只能用 8 位来表示(一个字节),即:2**8 = 256-1,所以,ASCII码最多只能表示 255 个符号。
为了处理汉字,程序员设计了用于简体中文的GB2312和用于繁体中文的big5。
GB2312(1980年)一共收录了7445个字符,包括6763个汉字和682个其它符号。汉字区的内码范围高字节从B0-F7,低字节从A1-FE,占用的码位是72*94=6768。其中有5个空位是D7FA-D7FE。
GB2312 支持的汉字太少。1995年的汉字扩展规范GBK1.0收录了21886个符号,它分为汉字区和图形符号区。汉字区包括21003个字符。2000年的 GB18030是取代GBK1.0的正式国家标准。该标准收录了27484个汉字,同时还收录了藏文、蒙文、维吾尔文等主要的少数民族文字。现在的PC平台必须支持GB18030,对嵌入式产品暂不作要求。所以手机、MP3一般只支持GB2312。
从ASCII、GB2312、GBK 到GB18030,这些编码方法是向下兼容的,即同一个字符在这些方案中总是有相同的编码,后面的标准支持更多的字符。在这些编码中,英文和中文可以统一地处理。区分中文编码的方法是高字节的最高位不为0。按照程序员的称呼,GB2312、GBK到GB18030都属于双字节字符集 (DBCS)。
有的中文Windows的缺省内码还是GBK,可以通过GB18030升级包升级到GB18030。不过GB18030相对GBK增加的字符,普通人是很难用到的,通常我们还是用GBK指代中文Windows内码。
显然ASCII码无法将世界上的各种文字和符号全部表示,所以,就需要新出一种可以代表所有字符和符号的编码,于是大家坐在一起拍脑袋想出来一个方法:所有语言的字符都用同一种字符集来表示,这就是Unicode。
Unicode(统一码、万国码、单一码)是一种在计算机上使用的字符编码。Unicode 是为了解决传统的字符编码方案的局限而产生的,它为每种语言中的每个字符设定了统一并且唯一的二进制编码,规定虽有的字符和符号最少由 16 位来表示(2个字节),即:2 **16 = 65536,
注:此处说的的是最少2个字节,可能更多
UTF-8(可变字符编码),是对Unicode编码的压缩和优化,它不再使用最少使用2个字节,而是将所有的字符和符号进行分类:ascii码中的内容用1个字节保存、欧洲的字符用2个字节保存,东亚的字符用3个字节保存...
所以,python解释器在加载 .py 文件中的代码时,会对内容进行编码(默认ascill),如果是如下代码的话:
报错:ascii码无法表示中文
#!/usr/bin/env python
print "你好,世界"
改正:应该显示的告诉python解释器,用什么编码来执行源代码,即:
#!/usr/bin/env python
# -*- coding: utf-8 -*-
print "你好,世界"
注释L:
单行注视:# 被注释内容
多行注释:""" 被注释内容 """
打印系统默认编码
总结:Python默认编码是Unicode,Unicode 兼容了GBK和UTF-8 ,但彼此编码格式是不一样的,相互之间转换需要进行解码或编码,如图:
好,有了以上的基础,我们就可以做出下面这个案例:
注意:解码之前需要显式声明先前的编码格式,编码之前最好显式指定编码格式
案例 2:utf-8 -> Unicode -> GBK:
总结:
ASCII码 ,一个字符只占一个字节,(不能存中文)---->GB2312(1980出现,只能存7000多个汉字) --> GBK18030(1995年,能存2万多个汉字) ---->GBK (Windows操作系统默认字符编码)
最后,出现了一种可以代表所有字符和符号的编码:Unicode
Unicode默认存一个字符都占两个字节,导致文件变大,解决方法:出现了一个Unicode的一个扩展集UTF-8( 可变长字符编码集),所有的英文字符依然按ASCII码的形式存储,所有的中文字符统一占三个字节,必须转码才能转换
python2 上默认所有的字符编码都是ASCII码
python3 上默认所有的字符编码都是Unicode.
Unicode 兼容了GBK和UTF-8 ,但彼此编码格式是不一样的,相互之间转换需要进行解码或编码.