Scrapy爬虫框架初试探(一)

安装Scrapy,pip install Scrapy。因为之前安装的各种坑都遇到了,这里安装不会再出错了

创建爬虫项目

在DOS界面中用CD命令切换到存储位置


存储位置

然后运行命令:scrapy startproject csdnSpider ,回车


建立项目

可以创建项目csdnSpider,csdnSpider文件夹下有如下文件
csdnSpider文件夹

简单介绍一下文件功能

scrapy.cfg 项目部署文件
csdnSpider/:
csdnSpider/:items.py  这里主要是做爬虫提取字段
csdnSpider/:pipelines.py  对爬虫字段的进一步处理,如去重,清洗,入库
csdnSpider/:settings.py 项目的配置文件
csdnSpider/:spiders.py 这里主要做爬虫操作

创建爬取模块

爬虫模块的代码都放置于spiders文件夹中,用于从单个或多个网站爬取数据的类,其应该包含初始页面的URL,以及跟进网页的链接,分析页内容是提取数据的函数,创建一个Spider类,需要继承scrapy.Spider类,并且定义三个属性:

name:用于区别Spider,必须是唯一的
start_urls:启动时爬取入口的URL列表,后续的URL响应后返回的Response对象
parse():会作为唯一的参数传递给该方法,该方法负责解析返回的数据(reponse data),提取数据(生成item)以及生成需要进一步处理的URL的Response对象

用Pycharm打开我们刚创建的csdnsoider项目,编写爬虫模块代码:

import scrapy

class csdnspider(scrapy.Spider): # 必须继承scrapy.Spider
    name = "csdn" #爬虫名称,这个名称必须是唯一的
    allowed_domains=["csdn.net"] #允许的域名
    start_urls = [
        "https://www.csdn.net/nav/ai"
    ]

    def parse(self, response):
        # 实现网页的解析
     pass

然后调用,在命令行中进入目录csdnSpider中,注意这里应该是于scrapy.cfg同级,运行命令:scrapy crawl csdn 其中csdn是我们刚才在爬虫模块定义的name,爬虫文件建立在spiders文件夹下
效果图:


1
2

这样就创建成功了

解析Html字段(提取爬虫字段)

之前的xpath与css已经讲过,这里说一下Selector用法,Selector对象有四个基本方法:

1、xpath(queery) 返回表达式所对应的所有人节点的selector list列表。
2、css(query)返回表达式所对应的所有人节点的selector list列表。
3、extract()序列化节点为UNicode字符串并返回列表。
4、re(regex)根据传入的正则表达式对数据进行提取,返回一个Unicode字符串列表。

在csdnspider类的parse()方法中,其中一个参数是reponse,将reponse传入的Selector(reponse)中就可以构造出一个Selector对象。

小技巧:我们在爬虫的时候,更多的是对爬取字段的表达式构造。Scrapy提供了一种简便的方式来查看表达式是否正确有效。

新打开一个命令窗口:输入E:\work\my_python\csdnSpider>scrapy shell"https://www.csdn.net/nav/ai"
效果图:

提取爬取字段

接着直接输入:response.xpath('//*[@id="feedlist_id"]/li[1]/div/div[1]/h2/a/text()').extract()
效果图:


字段

爬取字段代码

import scrapy

class csdnspiderpage(scrapy.Spider):
    name = "csdn"
    allowed = ["csdn.net"]
    start_urls = [
      'https://www.csdn.net/nav/ai'
    ]

    def parse(self, response):
        datas = response.xpath('//*[@id="feedlist_id"]/li/div')
        for data in datas:
            read_count = data.xpath('./div[1]/h2/a/text()').extract()
            read_count = read_count[0] if len(read_count) > 0 else ''
            print(read_count.strip())


        pass

在终端输入
scrapy crawl csdn
报错”No module named 'win32api'“
解决办法,Dos
pip install pypiwin32
pycharm 安装pypiwin32库
运行效果


爬取字段

总结

scrapy 框架非常强大,初步接触感觉到了他的便利和效率。今天学习的过程也是在磕磕碰碰,从寒大的写错命令开始,到我不知道在哪里建立spider。如何执行spider遇到了种种问题。
在打开终端的时候打开的位置上默认开启的项目,cd起来其实挺麻烦的,这里我们就修改一下,每次手动打开项目。这里可以修改一下设置:
File -> setting -> Appearance&Behavior -> System Setting -> Startup/Shutdown
取消 Reopen last project on startup 这个选项就好了


修改开启设置

这样终端打开为当前项目位置


终端

你可能感兴趣的:(Scrapy爬虫框架初试探(一))