爬虫之编码神坑

编码

  我相信大多数做过爬虫项目的人,都会遇到过编码问题,首先我先提一个问题,啥是编码??

编码底层的东西我也不懂,就不细说了。简单的来说:为了让电脑能识别世界上所有语言编写的代码,为每一个文字编写了唯一的编号。


爬虫之编码神坑_第1张图片
utf-8对应编码

编码种类

    编码的种类非常多像是ASCII,UTF-8,Unicode等等,数不胜数,很无奈,世界上的语言太多了

怎么解决编码问题

  在python这样包容性强大的第三方库里没有解决不了的事情。

为了一劳永逸解决编码的问题,chardet这个第三方库正好就派上了用场。用它来检测编码,简单易用。

使用chardet

一劳永逸的办法

r=requests.get(url)
print(r.content.decode(chardet.detect(r.content)['encoding']))

当我们拿到一个bytes时,就可以对其检测编码。用chardet检测编码,只需要一行代码:

chardet.detect(b'Hello, world!')
{'encoding': 'ascii', 'confidence': 1.0, 'language': ''}

检测出的编码是ascii,注意到还有个confidence字段,表示检测的概率是1.0(即100%)。

我们来试试检测GBK编码的中文:

data = '离离原上草,一岁一枯荣'.encode('gbk')
chardet.detect(data)
{'encoding': 'GB2312', 'confidence': 0.7407407407407407, 'language': 'Chinese'}

检测的编码是GB2312,注意到GBK是GB2312的超集,两者是同一种编码,检测正确的概率是74%,language字段指出的语言是'Chinese'。

对UTF-8编码进行检测:

data = '离离原上草,一岁一枯荣'.encode('utf-8')
chardet.detect(data)
{'encoding': 'utf-8', 'confidence': 0.99, 'language': ''}

我们再试试对日文进行检测:

data = '最新の主要ニュース'.encode('euc-jp')
chardet.detect(data)
{'encoding': 'EUC-JP', 'confidence': 0.99, 'language': 'Japanese'}

可见,用chardet检测编码,使用简单。获取到编码后,再转换为str,就可以方便后续处理。

chardet支持检测的编码列表请参考官方文档Supported encodings。

decode和encode

我经常把这两个函数搞晕,感觉长的都挺像的,哈哈
请参考以下文章 decode和encode的区别

text和content

请参考以下文章 text和content的区别

你可能感兴趣的:(爬虫之编码神坑)