scrapy框架总结

异步: 在调用发出后,可以直接返回,不管哟偶没有结果。

非阻塞:是指程序在等待调用结果时的状态,指在不能立刻得到结果之前,该调用不会阻塞当前线程

流程:1.首先Spiders(爬虫)将需要发送请求的url(requests)经ScrapyEngine(引擎)交给Scheduler(调度器)。

2.Scheduler(排序,入队)处理后,经ScrapyEngine,DownloaderMiddlewares(可选,主要有User_Agent, Proxy代理)交给Downloader。

3.Downloader向互联网发送请求,并接收下载响应(response)。将响应(response)经ScrapyEngine,SpiderMiddlewares(可选)交给Spiders。

4.Spiders处理response,提取数据并将数据经ScrapyEngine交给ItemPipeline保存(可以是本地,可以是数据库)。

5.提取url重新经ScrapyEngine交给Scheduler进行下一个循环。直到没有Url请求程序停止结束。

文件作用:

Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。

Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。

Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,

Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器),

Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方.

Downloader Middlewares(下载中间件):可以自定义扩展下载功能的组件(代理、cokies等)。

Spider Middlewares(Spider中间件):可以自定扩展和操作引擎和Spider中间通信的功能组件

scrapy框架的使用:

    1:先创建目录:scrapy  startproject 爬虫名称

     2:创建爬虫文件: scrapy genspider 爬虫名字 域名

    3 运行  scrapy crawl 爬虫文件名称

     response.url得到请求的url

    response.text得到响应的字符串内容

    response.status得到响应状态码

    response.headers得到响应头部

在scrapy框架里可以直接使用xpath 和 css 

response.xpath():里面写xpath路径 得到的都是selector对象 需要通过extract()提取

response.css(): 里面写选择器, 选择器::text获取属性 , ::attr(属性) 得到的也都是selector对象,也需要extract去提取

你可能感兴趣的:(scrapy框架总结)