抽空之余,写个小脚本,获取下上海详细的疫情数据,以作后续的详实数据分析(纯爱好),或者仅仅作为对历史的一种数据样本式的保存也未尝不可,顺便吧,缓解或者平复下情绪。
阅读本文章需要读者有一定的Python基础,且对XPATH、正则、selenium有一定程度的了解(知道基础知识和基础语法即可),并且对Python数据持久化手段有一定的了解(本文内使用的是shelve,因为方便)。
本文是通过爬虫手段,对上海卫健委官网发布的每日详实数据进行分析并解析出来,包括全市每日新增确诊、新增无症状感染者,各区每日新增确认、新增无症状感染者、新增人员居住小区名称,可以认为把每日发布的核心数据都解析了下来。
先声明下,此行为非商业行为,非盈利目的。
在解析的过程中,因为3月份和4月份部分时间段,上海发布的数据格式,包括每个区发布的文案格式,都特么有一定程度的不统一,造成解析工作比较蛋疼。但从4月5日之后,整体格式算是稳定了下来,所以本文在解析的时候,也根据不同的时间段的文章单独写了解析方法。
最后,经实测,脚本表现稳定、完美。
现在贴出来,另一方面,也算是 和Python爱好者一起交流学习。
为了使得脚本整体可读、可维护,共分了3个模块,分别是settings、main、tools,其中settings主要管理配置信息(核心是发布数据的文章地址),main是主程序,tools是各类解析方法(函数)。
好了,不扯淡了,开始贴代码。
先贴比较容易的,配置文件,整体代码如下
import pathlib
#存储数据的shelve数据库位置
dbname='shyqdatas'
path=pathlib.Path(__file__).parent.joinpath(dbname)
db_path=str(path)
#4月5日之前发布数据的文章链接,提取数据方式有一定差异
urls_before=[
# 'https://wsjkw.sh.gov.cn/xwfb/20220320/f9f1683cf055471fb1a67b8586e36660.html',#3月19日
# 'https://wsjkw.sh.gov.cn/xwfb/20220321/2cda1b24b5304d118352bdfd32af0aa4.html',#3月20日
# 'https://wsjkw.sh.gov.cn/xwfb/20220322/b5bf11c3ef924f2e9d292ad14b0f3403.html',#3月21日
# 'https://wsjkw.sh.gov.cn/xwfb/20220323/dd54a58cdf524a51af5ba113adc6730f.html',#3月22日
# 'https://wsjkw.sh.gov.cn/xwfb/20220324/a8643ae53c7644f597cd88b8f2f4d8c4.html',#3月23日
# 'https://wsjkw.sh.gov.cn/xwfb/20220325/a76fbb6a18f542cda80fa9a9a4b08dd3.html',#3月24日
# 'https://wsjkw.sh.gov.cn/xwfb/20220326/ff80e7e71f00478abf80a7d057e1683b.html',#3月25日
# 'https://wsjkw.sh.gov.cn/xwfb/20220327/09cfe78deb4041098d0042010fabdfeb.html',#3月26日
# 'https://wsjkw.sh.gov.cn/xwfb/20220328/12b074e3958e448ab6bfb52e739d1d1e.html',#3月27日
# 'https://wsjkw.sh.gov.cn/xwfb/20220329/b7430a2b3e04483c9d7ac6e4f4d4cf68.html',#3月28日
# 'https://wsjkw.sh.gov.cn/xwfb/20220330/8d4f5179f1ef43da91c2d63cd906bfeb.html',#3月29日
# 'https://wsjkw.sh.gov.cn/xwfb/20220331/e86a298aecdf4e94b1796089e943054b.html',#3月30日
# 'https://wsjkw.sh.gov.cn/xwfb/20220402/e4dfcc8e58b14b3e8dab46d60ff6d767.html',#4月1日
# 'https://wsjkw.sh.gov.cn/xwfb/20220403/c389b92483534c089fccd3f172c68595.html',#4月2日
# 'https://wsjkw.sh.gov.cn/xwfb/20220404/ff41c17c2bec4154b800f22040d3754a.html',#4月3日
# 'https://wsjkw.sh.gov.cn/xwfb/20220405/4c6aec72ef47453ba2a5643fad214b2a.html',#4月4日
]
#4月5日之后的数据链接,注释掉的是已经抓取过的
urls_after=[
# 'https://wsjkw.sh.gov.cn/xwfb/20220401/8c101d231d5644df8ed92d6bdbfab236.html',#3月31日
# 'https://mp.weixin.qq.com/s/djwW3S9FUYBE2L5Hj94a3A',#4月5日数据
# 'https://mp.weixin.qq.com/s/8bljTUplPh1q4MXb6wd_gg',#4月6日数据
# 'https://mp.weixin.qq.com/s/HTM47mUp0GF-tWXkPeZJlg',#4月7日数据
# 'https://mp.weixin.qq.com/s/79NsKhMHbg09Y0xaybTXjA',#4月8日数据
# 'https://mp.weixin.qq.com/s/_Je5_5_HqBcs5chvH5SFfA',#4月9日数据
# 'https://mp.weixin.qq.com/s/u0XfHF8dgfEp8vGjRtcwXA',#4月10日数据
# 'https://mp.weixin.qq.com/s/vxFiV2HeSvByINUlTmFKZA',#4月11日数据
# 'https://mp.weixin.qq.com/s/OZGM-pNkefZqWr0IFRJj1g',#4月12日数据
# 'https://mp.weixin.qq.com/s/L9AffT-SoEBV4puBa_mRqg',#4月13日数据
# 'https://mp.weixin.qq.com/s/5T76lht3s6g_KTiIx3XAYw',#4月14日数据
# 'https://mp.weixin.qq.com/s/ZkhimhWpa92I2EWn3hmd8w',#4月15日数据
# 'https://mp.weixin.qq.com/s/dRa-PExJr1qkRis88eGCnQ',#4月16日数据
#'https://mp.weixin.qq.com/s/LguiUZj-zxy4xy19WO0_UA',#4月17日数据
#'https://mp.weixin.qq.com/s/GWI6LxYLHOvv1dioN5olxg',#4月18日数据
#'https://mp.weixin.qq.com/s/puNUP9bjYlZNELsse09Z0w',#4月19日数据
#'https://mp.weixin.qq.com/s/8qCvsE578Ehz6UcWYRBfXw',#4月20日数据
#'https://mp.weixin.qq.com/s/qFvUyEB-R-GKP7vgKR-c3A',#4月21日数据
]
该配置文件主要管理待爬取的文章地址(因为上面所述,上海发布的数据在不同时段格式有一定差异,所以分了两组文章地址),以及进行数据存储的shelve数据库地址(可以直接使用,因为地址没有写死,是动态的根据配置文件地址生成)
以下为main文件,是此次脚本的主程序,主要是使用配置文件内信息,然后调用tools内的工具解析数据,并存储到shelve数据库内。
from lxml import etree
import requests,shelve
import settings
from tools import *
import time
from selenium import webdriver
def parse_html(driver,url):
driver.get(url)
time.sleep(5)
html=etree.HTML(driver.page_source)
return html
if __name__=='__main__':
urls_before=settings.urls_before #4月5日之前发布数据的文章链接
urls_after=settings.urls_after #4月5日之后发布数据的文章链接
db_path=settings.db_path
driver=webdriver.Firefox()
for url in urls_before:
#提取页面内的当日疫情数据
html=parse_html(driver,url)
datas=fetch_region_data_before(html)
#将数据存储到shelve内
with shelve.open(db_path) as db:
db[datas['current_date']]=datas
for url in urls_after:
#提取页面内的当日疫情数据
html=parse_html(driver,url)
datas=fetch_region_data_after(html)
#将数据存储到shelve内
with shelve.open(db_path) as db:
db[datas['current_date']]=datas
driver.quit()
以上代码,主要做以下几件事儿
因为toole文件是此次爬取的核心,并且包含的逻辑比较多,所以笔者分成了另外一个文章,在那个文章做详细的展示和说明。