Python爬虫实战:爬取人民日报数据写入Mysql

一、写这个爬虫的目的:
学了一段时间的Python、SQL语句,主要想通过这个爬虫熟悉静态网页站点的爬取,以及将爬取数据在数据库中进行操作的过程。
二、目标网站分析:
人民日报网站是静态网站,其页面跳转是通过 URL 的改变完成的,即所有数据一开始就是加载好的。我们只需要去 html 中提取相应的数据即可,不涉及到诸如 Ajax 这样的动态加载方法。
三、用到的主要第三方库:
通过上述分析,主要用了requests、lxml、pymysql、datetime这几个第三方库。其中,requests 库主要用来发起请求及接受响应信息,lxml主要通过Xpath方法来解析html内容,pymysql主要用于将爬取的数据写入Mysql数据库。
四、代码:

import requests
from lxml import etree
import pymysql
from datetime import datetime,timedelta
import time

def download_people_daily(year, month, day):
    
    #获取目标网页的 html 内容:
    def get_html_text(url):
        headers={
        'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
    }
        html=requests.get(url,headers=headers)
        html.raise_for_status()
        html.encoding="utf-8"
        return etree.HTML(html.text)

    url='http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +'nbs.D110000renmrb_01.htm'
 
    #爬取当天报纸的各版面的链接,将其保存为一个数组,并返回:
    def get_page_link(year,month,day):    
        selector1=get_html_text(url)
        temp_pagelink=selector1.xpath('//*[@id="pageLink"]/@href')    #获取版面相对路径
        pagelink=[]
        for i1 in range(len(temp_pagelink)):
            pagelink.append('http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +temp_pagelink[i1] )    #获取版面绝对路径,并将其添加到一个列表中
        return pagelink

    #爬取当天报纸某一版面的所有文章的链接,将其保存为一个数组,并返回:
    pageurl=get_page_link(year,month,day)
    articlelink=[]
    for i2 in pageurl:
        selector2=get_html_text(i2)
        temp_articlelink=selector2.xpath('//*[@id="titleList"]/ul/li[*]/a/@href')    #获取文章网址相对路径
        for i3 in range(len(temp_articlelink)):    
            articlelink.append('http://paper.people.com.cn/rmrb/html/'  + year + '-' + month + '/' + day + '/' +temp_articlelink[i3])       #获取文章网址绝对路径,并将其添加到一个列表中


    #爬取当天报纸所有文章的标题、时间版面、正文:
    title=[]
    dateinfo=[]
    content=[]
    for i4 in articlelink:
        selector3=get_html_text(i4)
        single_title=selector3.xpath('/html/body/div[1]/div/div[2]/div[4]/div/h1/text()')      #获取文章标题
        for i5 in range(len(single_title)):
            title.append(single_title[i5])
        single_dateinfo=selector3.xpath('/html/body/div[1]/div/div[2]/div[4]/div/div[1]/text()')     #获取版面时间
        for i6 in range(len(single_dateinfo)):
            dateinfo.append(single_dateinfo[i6])
        single_content=selector3.xpath('//*[@id="ozoom"]/p/text()')      #获取文章正文
        for i7 in range(len(single_content)):
            content.append(single_content[i7])


    # 将获取的信息写入MySQL数据库(不含文章正文):
    for i in range(len(dateinfo)):
        db = pymysql.connect(host='localhost', user='root', password='123456', port=3306, db='spiders')
        cursor = db.cursor()
        sql = 'INSERT INTO people_daily(dateinfo,articlelink,title) values(%s, %s, %s)'
        try:
            cursor.execute(sql, (dateinfo[i],articlelink[i],title[i]))
            db.commit()
        except:
            db.rollback()
        db.close()


def gen_dates(b_date, days):
    day = timedelta(days = 1)
    for i in range(days):
        yield b_date + day * i
        
        
def get_date_list(beginDate, endDate):
    start = datetime.strptime(beginDate, "%Y%m%d")      #开始日期
    end = datetime.strptime(endDate, "%Y%m%d")      #结束日期
    data = []
    for d in gen_dates(start, (end-start).days):
        data.append(d)   
    return data     #获得开始日期和结束日期之间的日期列表
 
            
if __name__ == '__main__':
    '''
    主函数:程序入口
    '''
    # 输入起止日期,爬取之间的新闻
    beginDate = input('请输入开始日期(格式如 20190808 ):')
    endDate = input('请输入结束日期(格式如 20190808 ):')
    data = get_date_list(beginDate, endDate)
    
    for d in data:
        year = str(d.year)
        month = str(d.month) if d.month >=10 else '0' + str(d.month)
        day = str(d.day) if d.day >=10 else '0' + str(d.day)
        download_people_daily(year, month, day)
        print("爬取完成:" + year + month + day)
        # time.sleep(1)        # 怕被封 IP 爬一爬缓一缓,爬的少的话可以注释掉

五、爬取效果:
1、编译器中的结果:在编译器提示下输入想要爬取数据的开始日期、结束日期后等待爬取结果。每完成一天的爬取,程序会在窗口中自动显示“爬取完成:********(当天日期)”。在这里插入图片描述
2、Navicat中Mysql的数据写入结果:在上述窗口显示所有日期的爬取均已完成后,在数据库中刷新表单后可以看到数据的写入结果。
Python爬虫实战:爬取人民日报数据写入Mysql_第1张图片

你可能感兴趣的:(python,mysql,requests,lxml,xpath)