Scrapy:Python的爬虫框架
Scrapy是一个使用Python编写的,轻量级的,简单轻巧,并且使用起来非常的方便。
调度器:抓取网页的网址(链接)的优先队列
下载器:抓取网页的网址(链接)的优先队列
爬虫:用于从特定的网页中提取自己需要的信息
实体管道:用于处理爬虫提取的实体
Scrapy引擎:用来控制调试器、下载器和爬虫
注:这根本不是个单词啊.scrape的音标是:[skreɪp],scrapy最后的字母y应该发i还是ai?既然是python框架,是不是应该发ai?
所以。。。。个人趋向于读:【思科rai皮】
后续有步骤就点完成即可,如果报错就点确定关闭就行了,项目已经创建完毕哦。
功能简介:
爬虫项目的工程目录及各个组成的作用:
scrapy.cfg:项目配置文件。
settings.py:项目设置文件。
pipelines.py:项目管道文件,主要用于对Items定义的数据进行加工与处理。
middlewares.py:项目的中间件文件。
items.py:项目的数据容器文件,用于定义获取的数据。
__init__.py:初始化文件。
spiders目录:爬虫目录,例如,创建文件、编写爬虫解析规则等
import scrapy
import json
from scrapy.selector import Selector
class book_scrapy(scrapy.Spider):
#用于区别Spider
name = "book_scrapy"
#允许访问的域
allowed_domains = ["book.zongheng.com"]
#爬取的地址
start_urls = ["http://book.zongheng.com/showchapter/1013348.html"]
#爬取方法
def parse(self, response):
html=response.text
sel=Selector(text=html)
list1=sel.css("ul:nth-child(2) a::attr(href)").extract()
list2=sel.css("ul:nth-child(2) a::text").extract()
file=open("save.txt","w+",encoding='utf-8')
item=[]
for x in range(len(list1)):
item.append({"title":list2[x],"url":list1[x]})
print(str(item))
file.write(str(item))
file.close()
a)、从这篇文章里可以看到一些新的东西了,例如:json、css选择器,这些知识点会在后面的课程里单独讲解。
欢迎【点赞】、【评论】、【关注】、【收藏】、【打赏】,为推广知识贡献力量。