利用scrapy制作网页爬虫

简单说明

name 定义爬虫名字,我们通过命令启动的时候用的就是这个名字,这个名字必须是唯一的
allowed_domains 包含了spider允许爬取的域名列表。当offsiteMiddleware启用时,域名不在列表中URL不会被访问,所以在爬虫文件中,每次生成Request请求时都会进行和这里的域名进行判断
start_urls 起始的url列表,这里会通过spider.Spider方法中会调用start_request循环请求这个列表中每个地址。
custom_settings 自定义配置,可以覆盖settings的配置,主要用于当我们对爬虫有特定需求设置的时候,设置的是以字典的方式设置:custom_settings = {}
from_crawler 这是一个类方法,我们定义这样一个类方法,可以通过crawler.settings.get()这种方式获取settings配置文件中的信息,同时这个也可以在pipeline中使用
start_requests() 这个方法必须返回一个可迭代对象,该对象包含了spider用于爬取的第一个Request请求,这个方法是在被继承的父类中spider.Spider中写的,默认是通过get请求,如果我们需要修改最开始的这个请求,可以重写这个方法,如我们想通过post请求
make_requests_from_url(url) 这个也是在父类中start_requests调用的,当然这个方法我们也可以重写
parse(response)这个其实默认的回调函数,负责处理response并返回处理的数据以及跟进的url,该方法以及其他的Request回调函数必须返回一个包含Request或Item的可迭代对象

1.利用scrapy框架构造爬虫文件

scrapy startproject fiction
cd fiction
scrapy genspider Fiction quanshuwang.com
tree

流程图

997599-20170718005824536-883249513.png

树形图

├── fiction
│   ├── __init__.py
│   ├── __pycache__
│   │   ├── __init__.cpython-36.pyc
│   │   ├── items.cpython-36.pyc
│   │   ├── pipelines.cpython-36.pyc
│   │   └── settings.cpython-36.pyc
│   ├── items.py
│   ├── middlewares.py
│   ├── pipelines.py
│   ├── settings.py
│   └── spiders
│       ├── Fiction.py
│       ├── __init__.py
│       └── __pycache__
│           ├── Fiction.cpython-36.pyc
│           └── __init__.cpython-36.pyc
└── scrapy.cfg

2.改造items文件

import scrapy
    class fictionItem(scrapy.Item):
            name = scrapy.Field()  # 小说名字
            chapter_name = scrapy.Field()  # 小说章节名字
            chapter_content = scrapy.Field()  # 小说章节内容

3.改造Fiction文件

# -*- coding: utf-8 -*-
import scrapy
import re
from fiction.items import fictionItem
from scrapy.http import Request
class fictionSpider(scrapy.Spider):
    name = 'Fiction'
    allowed_domains = ['quanshuwang.com']
    start_urls = [
        'http://www.quanshuwang.com/list/1_2.html',
        'http://www.quanshuwang.com/list/1_3.html',
        'http://www.quanshuwang.com/list/1_4.html',
        'http://www.quanshuwang.com/list/1_5.html',
        'http://www.quanshuwang.com/list/1_6.html',
        'http://www.quanshuwang.com/list/1_7.html',
        'http://www.quanshuwang.com/list/1_8.html',
        'http://www.quanshuwang.com/list/1_9.html',
        'http://www.quanshuwang.com/list/1_10.html',
    ]  # 全书网玄幻魔法类前10页

    # 获取每一本书的URL
    def parse(self, response):
        book_urls = response.xpath('//li/a[@class="l mr10"]/@href').extract()
        for book_url in book_urls:
            yield Request(book_url, callback=self.parse_read)

    # 获取马上阅读按钮的URL,进入章节目录
    def parse_read(self, response):
        read_url = response.xpath('//a[@class="reader"]/@href').extract()[0]
        yield Request(read_url, callback=self.parse_chapter)

    # 获取小说章节的URL
    def parse_chapter(self, response):
        chapter_urls = response.xpath('//div[@class="clearfix dirconone"]/li/a/@href').extract()
        for chapter_url in chapter_urls:
            yield Request(chapter_url, callback=self.parse_content)

    # 获取小说名字,章节的名字和内容
    def parse_content(self, response):
        # 小说名字
        name = response.xpath('//div[@class="main-index"]/a[@class="article_title"]/text()').extract_first()
        result = response.text
#对于scrapy.selector.unified.SelectorList对象,getall()==extract(),get()==extract_first()
#对于scrapy.selector.unified.Selector对象,getall()==extract(),get()!=extract_first()
        # 小说章节名字
        chapter_name = response.xpath('//strong[@class="l jieqi_title"]/text()').extract_first()
        # 小说章节内容
        chapter_content_reg = r'style5\(\);(.*?)
                    
                    

你可能感兴趣的:(利用scrapy制作网页爬虫)