016_字符编码

# __author__:Nzkalhbxx
# __date__:2017/10/16
# Python3中字符的默认编码标准是unicode, 而unicode是包容万象的, 因此当需要以特定格式编码时, 使用的是encode()
s = "PpPig大傻瓜啊"
# encode(self, encoding='utf-8', errors='strict'): 将字符以指定格式编码, 返回编码之后的字节类型
unicode_enconde_to_uft8 = s.encode("utf-8")
# unicode_enconde_to_gbk = s.encode("gbk")
print(s)

print("".join(["unicode to utf8: ", str(unicode_enconde_to_uft8]))
# print("".join(["unicode to gbk: ", str(unicode_enconde_to_gbk)]))

# decode(self, *args, **kwargs): 将字节类型以指定格式解码
s_decode_from_utf8 = unicode_enconde_to_uft8.decode("utf-8")
# s_decode_from_gbk = unicode_enconde_to_gbk.decode("gbk")

print(s_decode_from_utf8)
# print(s_decode_from_gbk)

"""将原本是以utf8编码的字节类型数据以gbk的规范解码, 会出现错误信息或者乱码,
    原因在于不同的编码格式对相同的字符处理方式是不一定相同的:
    当使用utf-8编码时, 中文占三个字节
    而当使用gbk编码时, 中文只占两个字节
    同样, 当使用utf的规范解码时, 当遇到以中文编码开始的字节类型时, 则取三个字节组成一个中文字符
    当使用gbk解码时, 当编码到其中的一个字节且在gbk编码表中是中文编码的开头的字节时, 则取两个字节组成一个中文字符
    所以当我们用utf-8编码, 而以gbk解码时, 遇到中文必然会出现乱码或者出错"""

print("".join(["unicode_enconde_to_uft8.decode(): ", str(unicode_enconde_to_uft8.decode("gbk"))]))
# print("".join(["unicode_enconde_to_gbk.decode(): ", str(unicode_enconde_to_gbk.decode("utf-8"))]))
运行结果

你可能感兴趣的:(016_字符编码)