python 使用requests模块爬取数据时中文乱码问题

目录

前言

重现问题

1.寻找目标

 2.编写代码

 解决问题

我喜欢的方式

尾声


前言

要想解决乱码问题得先知道我们获取的内容是什么格式的字符编码集

最常用的判断方式是查看网页源代码中的

第二种方式是在浏览器开发者工具中的控制台中输入document.charset 即可显示出网页的编码格式


重现问题

1.寻找目标

我先找一个会乱码的网站,就以国家统计局吧,先找一个中文字比较多的吧

python 使用requests模块爬取数据时中文乱码问题_第1张图片

先查看网页源代码,可以大概判断出是AJAX异步传送的,同时还可以知道该网页是'utf-8'编码的

python 使用requests模块爬取数据时中文乱码问题_第2张图片

要是不放心的话,还可以使用document.charset查看一下

python 使用requests模块爬取数据时中文乱码问题_第3张图片

 2.编写代码

import requests

url = 'https://data.stats.gov.cn/easyquery.htm?m=QueryData&dbcode=hgnd&rowcode=zb&colcode=sj&wds=%5B%5D&dfwds=%5B%5D&k1=1651977499228&h=1'
headers = {
	'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36 Edg/101.0.1210.39'
}


def solveCoding(url, headers):
	response = requests.get(url=url, headers=headers,verify=False)
	print(response.json())


if __name__ == '__main__':
	solveCoding(url=url, headers=headers)

python 使用requests模块爬取数据时中文乱码问题_第4张图片

 可能看的不是特别清楚,我用pprint打印一下吧

python 使用requests模块爬取数据时中文乱码问题_第5张图片

 解决问题

from pprint import pprint

import requests

url = 'https://data.stats.gov.cn/easyquery.htm?m=QueryData&dbcode=hgnd&rowcode=zb&colcode=sj&wds=%5B%5D&dfwds=%5B%5D&k1=1651977499228&h=1'
headers = {
	'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36 Edg/101.0.1210.39'
}


def solveCoding(url, headers):
	response = requests.get(url=url, headers=headers,verify=False)
	response.encoding = 'utf-8'
	pprint(response.json())


if __name__ == '__main__':
	solveCoding(url=url, headers=headers)

既然已经知道了该网页是'utf-8'编码的,只需要设置一下对应的字符编码就行了

python 使用requests模块爬取数据时中文乱码问题_第6张图片


我喜欢的方式

apparent_encoding

from pprint import pprint

import requests

url = 'https://data.stats.gov.cn/easyquery.htm?m=QueryData&dbcode=hgnd&rowcode=zb&colcode=sj&wds=%5B%5D&dfwds=%5B%5D&k1=1651977499228&h=1'
headers = {
	'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36 Edg/101.0.1210.39'
}


def solveCoding(url, headers):
	response = requests.get(url=url, headers=headers,verify=False)
	response.encoding = response.apparent_encoding
	pprint(response.json())


if __name__ == '__main__':
	solveCoding(url=url, headers=headers)

python 使用requests模块爬取数据时中文乱码问题_第7张图片

这个方法呢,我其实不太懂,因为文档给的信息太少了。

但就目前来看,它可以从内容中分析出的响应内容编码,然后自动转换,省时又省力,稳!


尾声

乱码其实是爬虫中很常见的一种问题,解决方式也是多种多样。

如果这篇文章对您有所帮助,那么这篇文章就有意义!


感谢您的观看!

你可能感兴趣的:(python)