scrapy学习笔记——Python网络爬虫利器(入门教程)

    因为工作原因要到网络上抓取一些新闻数据来分析,实在不想自己手动解析链接页面,再重新requests,还要处理多页的问题,一直听说scrapy是个很不错的工具,但一直都没有花心思学一下,最近几天看了一下,并自己动手编了个程序试了试,确实非常方便。

    顺便说一句,网上很多人发的文章都是翻译的官方的Tutorial,官方的Tutorial是挺不错,但是用到的功能都很基本,抓单个网页分析的话看一下还可以,抓多个网页的功能根本学不到要,下面以从新浪新闻中抓取文章为例说明,也是我本人学习的一个过程。

一、页面分析

比如想要搜关于“国庆放假”的新闻,搜出来的结果如下图所示:

scrapy学习笔记——Python网络爬虫利器(入门教程)_第1张图片

我是想把所有搜出来的新闻打开后抓取其标题、新闻来源、发布时间、新闻正文,然后把相关的内容存储起来准备分析处理,当然不能只抓取搜出来的第一页,而是要把所有的“下一页”遍历一遍,再抓取。

二、生成一个scrapy项目

scrapy startproject sinanews

会生成一个sinanews的目录,然后其中会包含一些必须的文件,网上介绍这些文件干什么用的文章挺多,就不再重复了,只说实现上述功能我们要修改的文件。

三、定义Item

要存储下来的数据都要存储在Item中,其实它就是一个特殊的dict,在startproject的时候已经生成了一个基本的模板,你只需要类的定义中加入一些你想要存储的数据结构并把它们定义为Field()即可。修改items.py文件:

# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/topics/items.html

from scrapy.item import Item, Field

class SinanewsScrapyItem(Item):
    # define the fields for your item here like:
    # name = Field()
    title = Field()
    source = Field()
    public_time = Field()
    text = Field()

四、定义Spider

Spider是抓取的主力军,这个类最为关键,这个类相关的文件并没有自动生成,需要自己手动新建一个,取名为sinanews_spider.py:

#  -*- coding=utf8 -*-
from scrapy.contrib.spiders import CrawlSpider, Rule
from scrapy.contrib.linkextractors import LinkExtractor

from sinanews_scrapy.items import SinanewsScrapyItem

class SinanewsSpider(CrawlSpider):
    name = 'sinanews'
    allowed_domains=['sina.com.cn']
    start_urls = ['http://search.sina.com.cn/?q=%B9%FA%C7%EC%B7%C5%BC%D9&c=news&from=index']

    rules = [Rule(LinkExtractor(allow = '/.+/\d+.shtml',
        deny = '/171826152112.shtml'),
        'parse_news'),
        Rule(LinkExtractor(restrict_xpaths = u"//a[@title='下一页']"), 
            follow=True)]

    def parse_news(self, response):
        news = SinanewsScrapyItem()
        temp_dict = {}

        temp = response.xpath("//h1[@id='artibodyTitle']//text()").extract()
        news['title'] = temp[0] if temp else ''

        temp = response.xpath("//span[@id='media_name']//text()").extract()
        news['source'] = temp[0] if temp else ''
        
        
        temp =  response.xpath("//span[@id='pub_date']//text()").extract()
        news['public_time'] = temp[0] if temp else ''

        temp = response.xpath("//div[@id='artibody']//p//text()").extract()
        news['text'] = '\n'.join(temp) if temp else ''

        return news

  1. 第7行类的定义继承自功能更强大的CrawlSpider,而不是Tutorial里讲的Spider。
  2. 第8行定义这个Spider的name,这个name作为scrapy crawl XXX的参数在正式进行抓取的时候会用到。
  3. 第12行比较关键,这里定义了一组规则,是作为跟踪链接的规则,符合规则的网页链接会被跟踪抓取。这里定义了两个规则组成一个list:一个是跟踪新闻相关的网页,找出这些网页链接网址的规律并用正则表达式定义allow,那个deny是网页底部有个反淫秽之类的不需要的页面,第三个参数是处理这个页面的回调函数名称;另一个规则是模拟点击“下一页”然后再进行抓取,找到“下一页”这个链接用xpath语句定义之,然后跟一个参数follow=True。
  4. 第16行这个follow=True让人感觉设计得真是漂亮,开始我在看文档一直想怎么写另外一个回调函数,然后又怎么递归调用重新启动一次呢,后来在github上找到了geekan抓取douban的一个例子,原来搞定“下一页”如此简单啊,不得不佩服设计者的用心。很多网上给的例子都是基本老版本scrapy的(我用0.24.4),还要写一个回调函数单独处理,尽管单独处理语句也没有几句,但比起这种处理方式来讲还是太麻烦了。
  5. 第18行往后已经没有什么技术含量了,无非是找到你想要抓取的东西在html文件中的位置,然后用合适的xpath表达式把它搜出来,然后逐一赋值给Item类的对应键值,然后将这个对象返回。

五、爬、爬、爬

scrapy crawl sinanews -o sinanews.json

输出的sinanews.json是个标准的json格式的数据,可以用官方的json库进行读取。

你可能感兴趣的:(Python)