爬虫实时疫情部分过程

第一步:找到网页源代码并进行分析
在这里,先找到了国家所处的位置
url=‘https://api.inews.qq.com/newsqa/v1/automation/foreign/country/ranklist’,
处在字典 :data[‘data’][0][‘name’]中。
爬虫实时疫情部分过程_第1张图片

// 爬取全国肺炎疫情海外实时数据
import requests
import json
import jsonpath

url = 'https://api.inews.qq.com/newsqa/v1/automation/foreign/country/ranklist'
response = requests.post(url)

第二步:获取数据
我在这里准备先获取所有国家的数据

data = json.loads(response.text)
//因为爬取到的是字符串格式的“假字典”格式,所以用json.loads()函数将其转化为字典格式
name = jsonpath.jsonpath(data, "$..name")  # "$..name"表示取根节点下name的键值
# print(name)

name打印后的结果如下:
在这里插入图片描述

# 通过json包转换类型
# json字符串转化为字典
data = json.loads(response.text)
print(data)#此时已经将json转化为字符串
print(type(data))
//转换为字典类型后面比较容易整合

在这里插入图片描述
接下来准备获取每个国家对应的确诊人数。
爬虫实时疫情部分过程_第2张图片
从网页源代码中看出确诊人数是confirm所对应的值。

confirm = jsonpath.jsonpath(data, "$..confirm")  # "$..name"表示取根节点下confirm的键值
# print(confirm)

在这里插入图片描述
第三步:数据处理
接下来要国家与其人数一一对应起来,并整合到一块。

# 数据处理
data_list = zip(name, confirm)  # 建立一一对应关系
//zip(数据1,数据2,数据n)
//一定要要保证其中的值都可以一一对应
print(data_list)
data_list = list(data_list)
print(data_list)

zip()函数相当于将两个数据进行了压缩,后面可以将它改成列表形式,如下图:
在这里插入图片描述
至此,就已经将海外国家与其对应的确诊人数全部获取了,后面就不写了,啥时候有兴趣了再说吧。。。

你可能感兴趣的:(笔记)