使用Python获取上海详细疫情数据(一)

抽空之余,写个小脚本,获取下上海详细的疫情数据,以作后续的详实数据分析(纯爱好),或者仅仅作为对历史的一种数据样本式的保存也未尝不可,顺便吧,缓解或者平复下情绪。

阅读本文章需要读者有一定的Python基础,且对XPATH、正则、selenium有一定程度的了解(知道基础知识和基础语法即可),并且对Python数据持久化手段有一定的了解(本文内使用的是shelve,因为方便)。

本文是通过爬虫手段,对上海卫健委官网发布的每日详实数据进行分析并解析出来,包括全市每日新增确诊、新增无症状感染者,各区每日新增确认、新增无症状感染者、新增人员居住小区名称,可以认为把每日发布的核心数据都解析了下来。

先声明下,此行为非商业行为,非盈利目的。

在解析的过程中,因为3月份和4月份部分时间段,上海发布的数据格式,包括每个区发布的文案格式,都特么有一定程度的不统一,造成解析工作比较蛋疼。但从4月5日之后,整体格式算是稳定了下来,所以本文在解析的时候,也根据不同的时间段的文章单独写了解析方法。

最后,经实测,脚本表现稳定、完美。

现在贴出来,另一方面,也算是 和Python爱好者一起交流学习。

为了使得脚本整体可读、可维护,共分了3个模块,分别是settings、main、tools,其中settings主要管理配置信息(核心是发布数据的文章地址),main是主程序,tools是各类解析方法(函数)。

好了,不扯淡了,开始贴代码。

一、settings配置文件

先贴比较容易的,配置文件,整体代码如下

import pathlib

#存储数据的shelve数据库位置
dbname='shyqdatas'

path=pathlib.Path(__file__).parent.joinpath(dbname)
db_path=str(path)



#4月5日之前发布数据的文章链接,提取数据方式有一定差异
urls_before=[
    # 'https://wsjkw.sh.gov.cn/xwfb/20220320/f9f1683cf055471fb1a67b8586e36660.html',#3月19日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220321/2cda1b24b5304d118352bdfd32af0aa4.html',#3月20日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220322/b5bf11c3ef924f2e9d292ad14b0f3403.html',#3月21日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220323/dd54a58cdf524a51af5ba113adc6730f.html',#3月22日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220324/a8643ae53c7644f597cd88b8f2f4d8c4.html',#3月23日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220325/a76fbb6a18f542cda80fa9a9a4b08dd3.html',#3月24日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220326/ff80e7e71f00478abf80a7d057e1683b.html',#3月25日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220327/09cfe78deb4041098d0042010fabdfeb.html',#3月26日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220328/12b074e3958e448ab6bfb52e739d1d1e.html',#3月27日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220329/b7430a2b3e04483c9d7ac6e4f4d4cf68.html',#3月28日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220330/8d4f5179f1ef43da91c2d63cd906bfeb.html',#3月29日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220331/e86a298aecdf4e94b1796089e943054b.html',#3月30日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220402/e4dfcc8e58b14b3e8dab46d60ff6d767.html',#4月1日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220403/c389b92483534c089fccd3f172c68595.html',#4月2日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220404/ff41c17c2bec4154b800f22040d3754a.html',#4月3日
    # 'https://wsjkw.sh.gov.cn/xwfb/20220405/4c6aec72ef47453ba2a5643fad214b2a.html',#4月4日    
]

#4月5日之后的数据链接,注释掉的是已经抓取过的
urls_after=[
    # 'https://wsjkw.sh.gov.cn/xwfb/20220401/8c101d231d5644df8ed92d6bdbfab236.html',#3月31日
    # 'https://mp.weixin.qq.com/s/djwW3S9FUYBE2L5Hj94a3A',#4月5日数据
    # 'https://mp.weixin.qq.com/s/8bljTUplPh1q4MXb6wd_gg',#4月6日数据
    # 'https://mp.weixin.qq.com/s/HTM47mUp0GF-tWXkPeZJlg',#4月7日数据
    # 'https://mp.weixin.qq.com/s/79NsKhMHbg09Y0xaybTXjA',#4月8日数据        
    # 'https://mp.weixin.qq.com/s/_Je5_5_HqBcs5chvH5SFfA',#4月9日数据
    # 'https://mp.weixin.qq.com/s/u0XfHF8dgfEp8vGjRtcwXA',#4月10日数据
    # 'https://mp.weixin.qq.com/s/vxFiV2HeSvByINUlTmFKZA',#4月11日数据
    # 'https://mp.weixin.qq.com/s/OZGM-pNkefZqWr0IFRJj1g',#4月12日数据
    # 'https://mp.weixin.qq.com/s/L9AffT-SoEBV4puBa_mRqg',#4月13日数据
    # 'https://mp.weixin.qq.com/s/5T76lht3s6g_KTiIx3XAYw',#4月14日数据
    # 'https://mp.weixin.qq.com/s/ZkhimhWpa92I2EWn3hmd8w',#4月15日数据
    # 'https://mp.weixin.qq.com/s/dRa-PExJr1qkRis88eGCnQ',#4月16日数据
    #'https://mp.weixin.qq.com/s/LguiUZj-zxy4xy19WO0_UA',#4月17日数据
    #'https://mp.weixin.qq.com/s/GWI6LxYLHOvv1dioN5olxg',#4月18日数据
    #'https://mp.weixin.qq.com/s/puNUP9bjYlZNELsse09Z0w',#4月19日数据
    #'https://mp.weixin.qq.com/s/8qCvsE578Ehz6UcWYRBfXw',#4月20日数据
    #'https://mp.weixin.qq.com/s/qFvUyEB-R-GKP7vgKR-c3A',#4月21日数据 
]

 该配置文件主要管理待爬取的文章地址(因为上面所述,上海发布的数据在不同时段格式有一定差异,所以分了两组文章地址),以及进行数据存储的shelve数据库地址(可以直接使用,因为地址没有写死,是动态的根据配置文件地址生成)

二、main文件

以下为main文件,是此次脚本的主程序,主要是使用配置文件内信息,然后调用tools内的工具解析数据,并存储到shelve数据库内。

from lxml import etree
import requests,shelve
import settings
from tools import * 
import time
from selenium import webdriver

def parse_html(driver,url):
    driver.get(url)
    time.sleep(5)
    html=etree.HTML(driver.page_source)    
    return html

if __name__=='__main__':  
    
    urls_before=settings.urls_before #4月5日之前发布数据的文章链接
    urls_after=settings.urls_after #4月5日之后发布数据的文章链接
    db_path=settings.db_path

    
    driver=webdriver.Firefox()
    
    for url in urls_before:
        #提取页面内的当日疫情数据
        html=parse_html(driver,url)
        datas=fetch_region_data_before(html)
        
        #将数据存储到shelve内
        with shelve.open(db_path) as db:
            db[datas['current_date']]=datas 

  
    for url in urls_after:
        #提取页面内的当日疫情数据
        html=parse_html(driver,url)       
        datas=fetch_region_data_after(html)
        
        #将数据存储到shelve内
        with shelve.open(db_path) as db:
            db[datas['current_date']]=datas 

    driver.quit()

 以上代码,主要做以下几件事儿

  1. 将配置文件内的配置项导入并引用
  2. 创建一个浏览器,并通过浏览器打开文章链接,获取源代码并使用etree解析,便于后续使用xpath提取数据
  3. 然后开始对两组文章链接进行循环提取,然后存储到shelve内,注意我这里是使用当日日期作为主键(因为后续通过数据库读取数据基本也是按照日期来)
  4. 其他的基本在代码内做了备注,如果有知识盲点,可以边学边补课。

因为toole文件是此次爬取的核心,并且包含的逻辑比较多,所以笔者分成了另外一个文章,在那个文章做详细的展示和说明。

你可能感兴趣的:(python,python,爬虫,selenium)