scrapy框架--快速了解

免责声明:本文仅做分享~ 

目录

介绍:

5大核心组件:

安装scrapy:

创建到启动:

修改日志配置:settings.py

修改君子协议配置:

伪装浏览器头:

让代码去终端执行:

数据保存:

1-基于命令

2-基于管道

文档:


介绍:

5大核心组件:

scrapy框架--快速了解_第1张图片


 

Scrapy是一个开源的Python框架,用于抓取网站数据并进行数据处理。Scrapy是一个快速、高效的框架,可以用来构建快速、可扩展的爬虫。Scrapy框架的主要组件包括:

1-引擎:Scrapy引擎负责处理数据流,包括调度、下载、解析、存储等。(包工头,大心脏)

2-调度器:Scrapy调度器负责管理URL请求,并将请求发送给下载器。

--过滤器和请求队列

3-spider:Spider是爬虫的主要组件,负责解析网页并提取数据。  

parse()方法:用于解析网页并提取数据。

4-下载器:下载器负责下载网页并返回响应。

5-管道:管道是Scrapy框架的核心组件之一,负责处理爬取到的数据。(保存数据,数据清洗,数据分析)

引擎--spider--调度器--下载器--引擎--管道

 


安装scrapy:

pip install scrapy

因为scrapy是异步框架,为什么是异步框架,是因为用了Twisted
pip install scrapy #默认安装最新版本的Scrapy
Twisted是一个Python网络框架,Scrapy使用Twisted来实现网络通信。异步IO的实现。
注意兼容问题.
Twisted                   22.10.0

如果使用scrapy2.9.0 Twisted-23.8.0 会有兼容问题
需要手动降版本
先卸载 pip uninstall Twisted
再安装 pip install Twisted==22.10.0 

 


创建到启动:

1-创建scrapy项目:
scrapy startproject 项目名称
scrapy startproject scrapy_demo1

2-进入项目目录:
cd scrapy_demo1

3-scrapy genspider 爬虫名称 域名
scrapy genspider baidu baidu.com

4-启动项目:
scrapy crawl 爬虫名
scrapy crawl baidu

修改日志配置:settings.py

#启动--发现打印了一些信息,调用,响应看

--设置日志输出的级别.

# 设置日志输出的级别:出现错误才输出.

LOG_LEVEL = "ERROR"


修改君子协议配置:

当pa百度的时候,发现返回不了数据,---因为百度有robots.txt 协议 -- 默认是遵守.

# 君子协议

ROBOTSTXT_OBEY = False

--我们不遵守.

scrapy框架--快速了解_第2张图片


伪装浏览器头:

伪装一下下,要不然明牌打.

USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"


让代码去终端执行:

# xxx.py 放在项目的spider文件夹下

from scrapy.cmdline import execute

execute(["scrapy","crawl", "爬虫名"])

数据保存:

1-基于命令

简单 -- 把所有数据return给parse()方法,然后执行命令.
缺点:有固定的格式:'json', 'jsonlines', 'jsonl', 'jl', 'csv', 'xml', 'marshal', 'pickle'
需要把parse()方法返回的数据保存到文件中: [{},{},{}]
scrapy crawl blibli -o blibli.txt  # 不行,会报错.

scrapy crawl blibli -o blibli.csv
--本地打开乱码就另存为.(编码问题)

2-基于管道

复杂
  1-在爬虫文件中进行数据解析
  2-在items.py定义相关属性(你要保存什么数据,就定于什么属性.)
  3-在 爬虫文件中 把 解析的数据存储封装到item类型对象中
  4-把item类型对象提交给管道
  5-在管道文件中,接收爬虫文件提交过来的item类型对象
  6-配置文件中开启管道 
  (默认的类只针对保存到txt里面.) Excel / 数据库

文档:

scrapy框架--快速了解_第3张图片 


 

你可能感兴趣的:(#,爬虫,scrapy,网络,大数据)