scrapy框架——爬虫

下载安装

官方网站: https://scrapy.org
官方文档: https://docs.scrapy.org/en/latest

安装:

  • 命令安装
    < pip install scrapy >
  • whl包安装方式
    到Python包发布网站上,下载对应的whl包: http://pypi.org
    pip install scrapy.1.5.whl
  • 压缩包方式安装
    直接登录scrapy官方网站,下载tar.gz压缩包,解压到本地文件夹中
    Python setu.py install
  • 注意:不同的操作系统可能会出现如下错误
    Microsoft Visual c++ 14.0 is Required[系统中缺少VC++编译库文件]
  • 解决办法【两种】
  • 1、安装VC++编译库文件
  • 2、下载scrapy已经编译好的文件进行安装
    安装地址:http://www.lfd.uci.edu/~gohlke/pythonlibs/

第一个程序【爬虫】

import scrapy
import pyttsx3

engine = pyttsx3.init()
class MySpider(scrapy.Spider):
        '''自定义爬虫程序,继承scrapy.spider.Spider类型;才能使用scrapy框架提供的爬虫功能'''
        name = "quotes"
        #定义起始采集地址
        start_urls = ("http://quotes.toscrpe.com/page/1/",)
        
        def parse(self, response):
        '''解析返回的数据'''
        #提取当前网页中所有名言数据
        quotes = response.css("div.quote")
        for quote in quotes:
            yield{
                  'text' : response.css("span.text::text").extract_first()
                    'author':response.xpath("span/small[@class='author']/text()").extract_first()
                  }
         #提取数据
        next_page = response。小path("//li[@class='next']/a/@href).extract_first()
        engine.say("开始采集" + next_page)
        engin.runAndWait()
        if next_page:
              # 存在下一页,继续采集—>请求交给scrapy
              yield response.follow(next_page, self.parse)
  • scrapy 项目中:

所有的爬虫程序,必须直接或者间接的继承自scrapy.Spider类型
自定义爬虫程序,必须重写父类中的如下三个特征:
1、name:爬虫程序的名称
2、start_urls:列表或者元组类型的数据,爬虫程序开始采集的URL地址,可以是一个url可以是多个url
3、parse():相应数据的解析函数,使用scrapy开发爬虫项目,我们不需要关心url 地址的调度、数据的下载。我们只需要关心在parse(self, response)函数中从response相应对象中提取数据

  • scrapy中的response响应对象数据

支持css数据的提取方法:response.css('div.quotes')
支持xpath数据的提取方法: response.css('span/small/text()')
直接提取数据并转换成unicode编码:extract()/extract_first()

  • 如果响应数据中包含需要继续采集的连接

提取连接
将连接交给scrapy继续采集: response.follow(url.func)
1、url:需要采集的URL地址
2、func:对目标URL地址进行数据采集完成之后,需要交给的解析函数【func:回调函数】(回头调用)

  • 执行爬虫程序:scrapy runspider<爬虫程序名称.py>

3、第一个项目

scrapy项目,搭建的是一个程序平台,可以在这个平台上同时管理和维护【工作】多个爬虫程序,互相可以完全独立。

一个项目——>管理---->多个爬虫程序
创建第一个scrapy项目>

scrapy startproject [项目名称] #创建好的项目结构如下

|--【项目名称】/ #scrapy项目根目录
》》|--【项目名称】/ #scrapy 爬虫项目
》》》》|-- init.py
》》》》|-- spiders/ #存放爬虫程序的文件/目录/ 路径
》》》》|--items.py #封装采集数据的类型定义模块
》》》》|--middlewares.py #中间件定义模块
》》》》|-- settings.py #爬虫程序信息配置模块
》》|-- scrapy.cfg #scrapy爬虫项目配置信息以及部署信息

创建第一个爬虫程序
1)、自动创建
scrapy genspider <程序名称> <域名限制>
自动中【项目名称】/【项目名称】/spider/目录下,创建一个爬虫程序模块,在模块中自动生成爬虫代码!
开发人员:主要关注爬虫程序中start_urls和解析函数parse()的处理即可。不需要关注技术上的实现。
2)、手工创建
在【项目名称】/【项目名称】/spider/目录下,手工创建一个xinlan.py模块,在模块中定义自定义类型,定义好的类型继承自scrapy模块中的scrapy类型,定义【name(程序名称),allowed_domains(域名限制),start_urls(起始采集地址)】属性和一个解析函数parse()
程序启动:scrapy crawl 《爬虫的name名称》

待续~~~

你可能感兴趣的:(scrapy框架——爬虫)