Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中。
其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。
Scrapy 使用了 Twisted异步网络库来处理网络通讯。整体架构大致如下
Scrapy组件说明:
Scrapy运行流程大概如下:
1-引擎向spiders要url;
2-引擎将要爬取的url给调度器;
3-调度器将url生成的请求对象放到指定的队列中;
4-从队列中出列一个请求;
5-引擎将请求交给下载器处理;
6-下载器发送请求获得互联网数据;
7-下载器将数据返回给引擎;
8-引擎将数据交给spiders;
9-spiders通过xpath解析该数据得到数据或url;
10-spiders将解析后的数据或url回给引擎;
11-引擎判断数据(如果是数据交给管道处理器,如果是url交给调度器)
(1)去https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted下载twisted版本的whl文件
百度云链接:链接 提取码:sbgp
然后去win黑框输入 pip install (文件位置安全属性找) 然后安装 pip install
bs4
requests
lxml
pywin32
PyOpenSSL
scrapy
mitmproxy
-i https://mirrors.aliyun.com/pypi/simple/
(安装过程缓慢,可以使用豆瓣源)
eg: pip install bs4 -i https://mirrors.aliyun.com/pypi/simple/
(2)目录结构:会生成两重项目名称,
第一重包包含scarpy.cfg,第二重包包含其他文件,并包含spiders爬虫目录(爬虫文件在此文件内)
1.spiders 爬虫目录,包含爬虫文件
2.items.py 定义数据结构的地方
3.middlewares.py 中间件
(当需要配置IP代理时在此文件中
def process_request(self,request,apider):
request.meta["proxy"] = "http[s]://ip:port"
return None)
4.pipelines.py 管道文件
5.settings.py 项目配置文件,配置适用于项目内的每个spider
(1~ITEM_PIPELINES管道配置,用于item后处理,需要在pipelines文件或调用源文件中重写相应类,
并配置相应数据库属性
2~LOG 日志配置(LOG_LEVEL 设置日志显示等级,此举动决定了显示哪些,不显示哪些日志
LOG_FILE 将屏幕显示的信息记录到文件中,屏幕中不再显示)
3~DOWNLOADER_MIDDLEWARES 下载中间件(打开配置,在对应文件位置添加IP代理如:DOWNLOADER_MIDDLEWARES = { 'exam.middlewares.ExamDownloaderMiddleware': 543,},并在相应文件内添加具体IP)
4~DOWNLOAD_DELAY =1 设置爬取延迟时间,保护网站服务器
5~分布式爬虫配置
(#scrapy_redis指纹去重类
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 调度器使用是scrapy_redis的调度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 爬取的过程中是否允许暂停
SCHEDULER_PERSIST = True
# 配置存储的redis服务器
REDIS_HOST = '10.0.112.191'
REDIS_PORT = 6379))
(2)使用(eg:斗鱼)
创建Scrapy项目:
scrapy startproject douyu
进入spiders:
cd douyu/douyu/spiders
使用项目命令genspider创建Spider
scrapy genspider dy https://www.douyu.com/
(预知后事如何,请等下次更新)