Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。
Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。
引擎(EGINE):
引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。
调度器(SCHEDULER):
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
下载器(DOWLOADER)
用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的
爬虫(SPIDERS)
SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求
项目管道(ITEM PIPLINES)
在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作
下载器中间件(Downloader Middlewares)
位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,你可用该中间件做以下几件事:
爬虫中间件(Spider Middlewares)
位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)
startproject 创建项目
genspider: scrapy genspider [-t template]
生成爬虫,-l 查看模板; -t 指定模板,name爬虫名,domain域名
settings 查看设置
runspider 运行爬虫(运行一个独立的python文件,不必创建项目)
shell :scrapy shell [url]
进入交互式命令行,可以方便调试
–spider=SPIDER 忽略爬虫自动检测,强制使用指定的爬虫
-c 评估代码,打印结果并退出:
$ scrapy shell --nolog http://www.example.com/ -c '(response.status, response.url)'
(200, 'http://www.example.com/')
–no-redirect 拒绝重定向
–nolog 不打印日志
response.status 查看响应码
response.url
response.text; response.body 响应文本;响应二进制
view(response) 打开下载到本地的页面,方便分析页面(比如非静态元素)
fetch 查看爬虫是如何获取页面的,常见选项如下:
view 同交互式命令中的view
version
scrapy crawl
指定爬虫开始爬取(确保配置文件中ROBOTSTXT_OBEY = False)scrapy check [-l]
检查语法错误scrapy parse [options]
爬取并用指定的回掉函数解析(可以验证我们的回调函数是否正确) scrapy startproject tutorial
tutorial/
scrapy.cfg # 项目的主配置信息,用来部署scrapy时使用,爬虫相关的配置信息在settings.py文件中
tutorial/ # 项目模块
__init__.py
items.py # 设置数据存储模板,用于结构化数据,类似Django的Model
pipelines.py # 数据处理行为,如:一般结构化的数据持久化
settings.py # project settings file
spiders/ # a directory where you'll later put your spiders
__init__.py
待更新