Requests函数返回值乱码问题解决

(一)Requests函数返回值乱码问题解决

在使用Requests函数获取网页信息时,会遇到返回值为中文的情况,往往这个时候返回的中文数据处于乱码的一个状态。encoding是从http中的header中的charset字段中提取的编码方式,若header中没有charset字段则默认为ISO-8859-1编码模式,则无法解析中文,这是乱码的原因。

(二)解决方式

1、apparent_encoding

apparent_encoding会从网页的内容中分析网页编码的方式,所以apparent_encoding比encoding更加准确。当网页出现乱码时可以把apparent_encoding的编码格式赋值给encoding。代码如下:

import requests

url = 'https://www.zhipin.com/hangzhou/?sid=sem_pz_bdpc_dasou_title'
header = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36'
}
res = requests.get(url, headers=header)
res.encoding = res.apparent_encoding
print(res.text)

2、chardet方法

chardet:字符串/文件的编码检测
chardet可以直接用detect函数来检测所给字符的编码。函数返回值为字典,有2个元数,一个是检测的可信度,另外一个就是检测到的编码。代码如下:

import requests
import chardet

url = 'https://www.zhipin.com/hangzhou/?sid=sem_pz_bdpc_dasou_title'
header = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36'
}
res = requests.get(url, headers=header)
encoding=chardet.detect(res.content)['encoding']
#由于content是HTTP相应的原始字节串,可以根据headers头部的charset把content decode为unicode
print(res.content.decode(encoding))

3、编码,解码

import requests

url = 'https://www.zhipin.com/hangzhou/?sid=sem_pz_bdpc_dasou_title'
header = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36'
}
res = requests.get(url, headers=header)
try:
    temp=res.content.decode('gbk')
except UnicodeDecodeError as e :
    temp=res.content.decode('utf-8')
print(temp)

(三)总结

在编码时时常会遇到中文乱码的情况,不如尝试以上几种方式去解决。加油!

你可能感兴趣的:(Python学习,html,前端,python)