小福利,运用scrapy爬虫框架高效爬取数据和存储数据

大家好,我是天空之城,今天给大家带来,运用scrapy爬虫框架高效爬取数据和存储数据。
Scrapy的用法
0.创建Scrapy项目
1定 义item(数据)
2创建 和编写spiders文件
3修改settings.py文件
4运行Scrapy爬 虫
小福利,运用scrapy爬虫框架高效爬取数据和存储数据_第1张图片
小福利,运用scrapy爬虫框架高效爬取数据和存储数据_第2张图片
写代码:
明确目标
分析过程
代码实现(逐步)

以爬取豆瓣图书为演示https://book.douban.com/top250
豆瓣Top250图书一共有10页,每页有25本书籍。我们的目标是:先只爬取前三页书籍的信息,也就是爬取前75本书籍的信息(包含书名、出版信息和书籍评分)。
网址规律,
第2页的网址:
https:/ /book.douban.com/ top250?start=25
第3页的网址:
https:/ /book.douban.com/ top250?start=50

右击检查,你就会发现,其实每一页的25本书籍信息都分别藏在了一个标签里。不过这个标签没有class

你可能感兴趣的:(python,scrapy,python)