1,Scrapy是用纯Python实现一个为了爬取网站数据、提取数据结构二编写的应用框架,用途非常广泛。
2,框架的力量,用户需要定制开发几个模块就可以实现一个爬虫,用来抓取网页内容以及各种图片,非常之方便。
3,Scrapy使用了Twisted异步网络框架来处理网络通讯,可以加快我们的下载速度,不用自己去实现异步框架,并且包含了各自中间件接口,可以灵活的完成各种需求。
●Scrapy Engine(引擎) :负责Spider. ItemPipeline、 Downloader. Scheduler中间的通讯,信号、数据传递等。
●Scheduler (调度器):它负责接受引擎发送过来的Request请求,井按照一定的方式进行整理排列, 入队,当引擎需要时,交还给引擎。
●Downloader (下载器》‘: 负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎), 由引擎交给Spider来处理,
●Spider (爬虫) :它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入scheduler (调度器)。
●Item Pipeline(管道) :它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤,存储等)的地方.
●Downloader Middlewares (下载中间件) :你可以当作是一个可以自定义扩展 下载功能的组件。
●Spider Middlewares (Spider中间件) :你可以理解为是一个可以自定扩展和操作引擎spider中间通信的功能组件(比如进入spider的Responses;和从Spider出去的Requests)
代码写好,程序开始运行…
1.引擎: Hi! Spider,你要处理哪一个网站?
2. spider: 老大要我处理xxx.com。start. urls=[ ]
3.引擎:你把第一个需要处理的URL给我吧。
4. Spider:给你,第一个URL是xxxxxx.com.
5.引擎: HI!‘ 调度器‘ ,我这有request请求你帮我排序入队-下。
6.调度器:好的,正在处理你等一下。
7.引擎: HI! 调度器,把你处理好的request请求给我。
8.调度器:给你,这是我处理好的request
9.引擎: Hi! 下载器,你按照老大的下载中间件的设置帮我下载一下这个request请求
10.下载器:好的!给你,这是下载好的东西。 (如果失败: sorry, 这个request下载失败了。然后引擎告诉调度器,这个request下载失败了,你记录下,我们待会儿再下载)
11.引擎: Hi! Spider, 这是下载好的东西,并且已经按照老大的下载中间件处理过了,你自己处理-下(注意!这儿responses默认是交给def parse() 这个函数处理的)
12. Spider: (处理完毕数据之 后对于需要跟进的URL),Hi!引擎,我这里有两个结果,这个是我需要跟进的URL,还有这个是我获取到的Item数据。
13.引擎: Hi!管道我这儿有个item你帮我处理- -下! 调度器!这是需要跟进URL你帮我处理下。然后从第四步开始循环,直到获取完老大需要全部信息。
14.管道”“调度器:好的,现在就做!
注意:只有当调废霉没有request需要处理时,整个程序才会停止。(对于 下载失败的URL, Scrapy也会重新下载)
我们打开终端输入命令:
pip install Scrapy
●新建项目(scrapy startproject xxx):新建一个新的爬虫项目
●明确目标(编写items.py) :明确你想要抓取的目标
●制作爬虫(spiders/xxspider.py) :制作爬虫开始爬取网页
●存储内容(pipelines.py) :设计管道存储爬取内容
在开始爬取之前,必须创建一个新的Scrapy项目。进入自定义的项目目录中,运行下列命令:
scrapy startproject myspider
其中, myspider 为项目名称,可以看到将会创建一个 myspider 文件夹,目录中有许多文件:
下面来简单介绍一下各个主要文件的作用:
我们打算抓取:http://www.zongheng.com/rank/details.html?rt=3&d=1 网站里第一页的小说名字,作者,类型,简介。
打开myspider目录下的items.py
Item 定义结构化数据字段,用来保存爬取到的数据,有点像Python中的dict,但是提供了一些额外的保护减少错误。
可以通过创建一个 scrapy.Item 类, 并且定义类型为 scrapy.Field的类属性来定义一个Item(可以理解成类似于ORM的映射关系,这里我也不是很了解大就是远程连接数据库的意思吧)。
接下来,创建一个NovelspiderItem类,和构建item模型(model)。
import scrapy # 引入模块
# 定义一个NovelspiderItem的类
class NovelspiderItem(scrapy.Item):
name = scrapy.Field() # 小说名字
auto = scrapy.Field() # 小说作者
typ = scrapy.Field() # 小说类型
info = scrapy.Field() # 小说简介
爬虫功能要分两步:
myspider/spiders
目录下创建一个名为novel
的爬虫,并指定爬取域的范围:scrapy genspider novel
import scrapy
# 定义一个类继承了scrapy.Spider
class NovelSpider(scrapy.Spider):
name = 'novel' #爬虫名字,必须唯一
#allowed_domains = ['http://www.zongheng.com'] 注释掉这个会影响我们的爬取范围
start_urls = ['http://www.zongheng.com/rank/details.html?rt=3&d=1'] # 需要爬取的网站
def parse(self, response):
pass
要建立一个Spider, 你必须用scrapy.Spider类创建一个子类,并确定了三个强制的属性 和 一个方法。
name = ""
:这个爬虫的识别名称,必须是唯一的,在不同的爬虫必须定义不同的名字。
allow_domains = []
是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页,不存在的URL会被忽略。
start_urls = ()
:爬取的URL元祖/列表。爬虫从这里开始抓取数据,所以,第一次下载的数据将会从这些urls开始。其他子URL将会从这些起始URL中继承性生成。
parse(self, response)
:解析的方法,每个初始URL完成下载后将被调用,调用的时候传入从每一个URL传回的Response对象来作为唯一参数,主要作用如下:
start_urls = ("http://www.zongheng.com/rank/details.html?rt=3&d=1",)
def parse(self, response):
with open('novel.html', 'w', encoding='utf-8') as f:
f.write(response.text)
然后在Terminal中进入myspider目录下输入命令并回车:
scrapy crawl itcast
一个Scrapy爬虫项目里,可以存在多个爬虫。各个爬虫在执行时,就是按照 name 属性来区分。
运行之后,如果打印的日志出现
[scrapy] INFO: Spider closed (finished)
,代表执行完成。 之后当前文件夹中就出现了一个 teacher.html 文件,里面就是我们刚刚要爬取的网页的全部源代码信息。
!DOCTYPE html>
<html>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8"/>
<meta name="copyright" content="本页版权 www.zongheng.com 纵横中文网所有。All Rights Reserved"/>
<meta name="renderer" content="webkit">
<meta http-equiv="X-UA-Compatible" content="IE=edge">
<link rel="shortcut icon" href="https://static.zongheng.com/favicon.ico" />
from ..items import NovelspiderItem
ItcastItem
对象中,可以保存每个老师的属性:import scrapy
from ..items import NovelspiderItem
# 定义一个类继承了scrapy.Spider
class NovelSpider(scrapy.Spider):
name = 'novel'
#allowed_domains = ['http://www.zongheng.com'] 注释掉这个会影响我们的爬取范围
start_urls = ['http://www.zongheng.com/rank/details.html?rt=3&d=1'] # 需要爬取的网站
def parse(self, response):
# 将我们得到的数据封装到一个 `NovelspiderItem()` 对象
item = NovelspiderItem()
# extract作用为提取正文
name = response.xpath('/html/body/div[2]/div[4]/div[2]/div[2]/div/@bookname').extract()
auto = response.xpath('/html/body/div[2]/div[4]/div[2]/div[2]/div/div[2]/div[2]/@title').extract()
typ = response.xpath('/html/body/div[2]/div[4]/div[2]/div[2]/div/div[2]/div[2]/a[2]/text()').extract()
info = response.xpath('/html/body/div[2]/div[4]/div[2]/div[2]/div/div[2]/div[3]/text()').extract()
# 利用枚举取出元素
for i, sku in enumerate(name):
item['name'] = sku
item['auto'] = auto[i]
item['typ'] = typ[i]
item['info'] = info[i].replace('/n', '').replace('/r', '')
#使用yield迭代返回数据
yield item
# json格式,默认为Unicode编码
scrapy crawl novel -o novel.jsonl
# json lines格式,默认为Unicode编码
scrapy crawl novel -o novel.json
# csv 逗号表达式,可用Excel打开
scrapy crawl novel -o novel.csv
# xml格式
scrapy crawl novel -o novel.xml
在Terminal中输入命令回车
scrapy crawl novel -o novel.json
其实scrapy框架真的很方便,比较一般的爬虫我们需要写请求,需要保存数据,而且一个文件只能做一个爬虫(一般情况),而scrapy就很方便只需要写目标网站,然后寻找数据xpath路径分析即可,运行时 -o 加上文件名即可保存
爬虫文件
设置文件