目标
1、URL: http://www.mca.gov.cn/ - 民政数据 - 行政区划代码
即: http://www.mca.gov.cn/article/sj/xzqh/2019/
2、目标: 抓取最新中华人民共和国县以上行政区划代码
实现步骤
# 特点
1、最新的在上面
2、命名格式: 2019年X月中华人民共和国县以上行政区划代码
# 代码实现
import requests
from lxml import etree
import re
url = 'http://www.mca.gov.cn/article/sj/xzqh/2019/'
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'}
html = requests.get(url, headers=headers).text
parse_html = etree.HTML(html)
article_list = parse_html.xpath('//a[@class="artitlelist"]')
for article in article_list:
title = article.xpath('./@title')[0]
# 正则匹配title中包含这个字符串的链接
if re.findall(r'.*?中华人民共和国县以上行政区划代码.*?', title, re.S):
# 获取到第1个就停止即可,第1个永远是最新的链接
two_link = 'http://www.mca.gov.cn' + article.xpath('./@href')[0]
print(two_link)
break
2、从二级页面链接中提取真实链接(反爬-响应内容中嵌入JS,指向新的链接)
1、向二级页面链接发请求得到响应内容,并查看嵌入的JS代码
2、正则提取真实的二级页面链接
# 相关思路代码
two_html = requests.get(two_link, headers=headers).text
# 从二级页面的响应中提取真实的链接(此处为JS动态加载跳转的地址)
new_two_link = re.findall(r'window.location.href="(.*?)"', html2, re.S)[0]
3、在数据库表中查询此条链接是否已经爬取,建立增量爬虫
1、数据库中建立version表,存储爬取的链接
2、每次执行程序和version表中记录核对,查看是否已经爬取过
# 思路代码
cursor.execute('select * from version')
result = self.cursor.fetchall()
if result:
if result[-1][0] == two_link:
print('已是最新')
else:
# 有更新,开始抓取
# 将链接再重新插入version表记录
4、代码实现
'''民政部网站数据抓取(增量爬虫)'''
import requests
from lxml import etree
import re
import pymysql
class Govement(object):
def __init__(self):
self.one_url = 'http://www.mca.gov.cn/article/sj/xzqh/2019/'
self.headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'}
self.db = pymysql.connect('127.0.0.1','root','123456','govdb')
self.cursor = self.db.cursor()
# 获取二级页面真实链接,并和数据库中比对
def get_two_link(self):
html = requests.get(self.one_url,headers=self.headers).text
# 此处隐藏了真实的二级页面的url链接,通过js脚本生成,保存本地文件查看
parse_html = etree.HTML(html)
a_list = parse_html.xpath('//a[@class="artitlelist"]')
for a in a_list:
title = a.xpath('./@title')[0]
# 正则匹配title中包含这个字符串的链接
# 利用正则找到第一个自己需要的title里面的地址(第一个一般都是最新的)
if re.findall(r'.*?中华人民共和国县以上行政区划代码.*?',title,re.S):
# 获取到第1个就停止即可,第1个永远是最新的链接
two_link = 'http://www.mca.gov.cn' + a.xpath('./@href')[0]
break
# 从已提取的two_link中提取二级页面的真实链接
two_html = requests.get(two_link, headers=self.headers).text
# 从二级页面的响应中提取真实的链接(此处为JS动态加载跳转的地址)
real_two_link = re.findall(r'window.location.href="(.*?)"', two_html, re.S)[0]
# 实现增量爬取
self.cursor.execute('select * from version')
result = self.cursor.fetchall()
if result:
if result[-1][0] == real_two_link:
print('已是最新')
else:
self.get_data(real_two_link)
self.cursor.execute('insert into version values(%s)',[real_two_link])
self.db.commit()
# 用xpath直接提取数据
def get_data(self,real_two_link):
real_two_html = requests.get(real_two_link,headers=self.headers).text
parse_html = etree.HTML(real_two_html)
# 基准xpath,提取每个信息的节点列表对象
tr_list = parse_html.xpath('//tr[@height=19]')
city_info = {}
for tr in tr_list:
city_info['code'] = tr.xpath('./td[2]/text()')
city_info['name'] = tr.xpath('./td[3]/text()')
print(city_info)
if __name__ == '__main__':
spider = Govement()
spider.get_two_link()
注:爬虫有风险,爬取需谨慎 !
附git代码地址:https://github.com/RyanLove1/spider_code