对于编码方式的学习总结

首先需要清楚的一个概念就是:我们在计算机屏幕上看到的汉字、英文或者其他的字符跟它们实际在计算机中存储的形势是不一样的。计算机永远只能存储二进制位(0和1),所有存在计算机中的数据和信息都是以0和1组合的形式存储的。当我们需要使用这些数据的时候,从计算机的存储设备中读取相关的二进制码,再对照着“相应的表格“进行查找,就可以把二进制码转换成我们可以理解的文字了!

我们可以认为把文字和符号转换成二进制码的过程就是一个广义的字符编码的过程。随着科技的发展和人们需求的变化,历史上出现了许多种字符的编码方式,这里只是介绍几种广泛被人们接受而且现在仍被使用的编码方式。

1.ASCII码

ASCII码是在上个世纪由美国人提出并设计的。ASCII码一共定义了128个字符,包括前面0-31个不可打印的字符和后面32-127个普通字符。其中0-31定义的字符也被称为控制字符。之前有说过计算机是使用0和1来存储信息,每一位(bit)可以有两个值:0和1,它们可以用来代表不同的信息。所以要想用二进制的0和1来表示128个字符一共就需要7位:从0000000到1111111. 至此,制定ASCII码的技术人员规定使用8bit的二进制数来存储一个符号,例如:在ASCII码中大写字母A对应的二进制符号就是01000001(十进制位65)。这样在ASCII码中,我们就可以使用一个字节(byte)来存储一个字符了,范围为:00000000到01111111。而且需要注意的是ASCII码表示的字符最高位永远都是0。

ASCII码并没有完美解决字符的编码问题,对于那些不使用英语的国家来说,他们的语言里面所包含的字符远远超过了128位,所以他们需要另外的编码方式。对于一些欧洲国家来说,他们的语言会比英语多几个特殊的字母,而且他们也注意到ASCII码只是使用了一个字节的前面7个bit,最高位并没有被使用,于是这些欧洲国家就使用剩下的10000000到11111111来定义自己的特殊字符,而0000000到01111111之间跟ASCII码的定义一样!由于各自国家有不同的字母,尽管在0000000到01111111之间使用任何一个二进制码都能得到相同的符号,但是在10000000到11111111之间即使使用同一个二进制码也不一定能得到一样的符号。这个问题就会导致乱码的情况,比如说从俄罗斯发到德国的电子邮件,在德国打开后就会出现无法理解乱码。

2.Unicode码

Unicode码就完美的解决了乱码的问题,它给目前世界上所有有意义的字符定义了一个独一无二的编码,但是有一点需要注意的就是Unicode并不像ASCII码那样定义了用多少字节来去存储表示这个字符的二进制码。 例如Unicode码中定义使用U+0041来表示大写字母A。

Unicode可以理解为一个字符集,它给每个有意义的字符定义了单独的二进制代码。

3.UTF-8

UTF-8可以理解为是Unicode的一种实现形式,因为Unicode没有规定使用多少字节去存储表示符号的二进制码,UTF-8就对此进行了规定:UTF-8规定使用1个到4个字节来存储相应的二进制位。可以看出UTF-8是一种变长的编码方式,这相对于使用固定的2个或者4个字节的存储方式更加的节省空间。UTF-8的编码规则只有两条:

  1. 对于Unicode码为单字节的符号,字节的第一位设为0,后面的7位为这个符号的Unicode码。因此对于英文字母,ASCII码和UTF-8码是相同的。
  2. 对于Unicode码为n字节(n>1),第一个字节的前n位都设为1,第n+1位设为0。后面的n-1个字节前两位都设为10,其余没有提及的二进制位全部位这个符号的Unicode码。

下面的表格总结了UTF-8的编码规则,x表示可以编码的位:

|Unicode码范围|UTF-8编码方式|
|--:--|--:--|
|0000 0000 -- 0000 007F|0xxxxxxx|
|0000 0080 -- 0000 07FF|110xxxxx 10xxxxxx|
|0000 0800 -- 0000 FFFF|1110xxxx 10xxxxxx 10xxxxxx|
|0001 0000 -- 0010 FFFF|11110xxx 10xxxxxx 10xxxxxx 10xxxxxx|

举例说明:字母A的Unicode码为U+0041,可以看出它是单字节的,处在0000 0000 -- 0000 007F范围,所以A的UTF-8编码为:”0100 0001”

4. 总结

对于一个文本,一定要记住没有什么“纯文本”的概念,在你不知道一段字符的编码方式的时候,对这段字符做任何处理都是没有意义的,因为你根本不知道这段字符表示的是什么意思!

你可能感兴趣的:(对于编码方式的学习总结)