8-25-(经常更新)xpath和css选择器的用法

scrapy里很多地方都借鉴了django的影子。

setting

里边包含很多设置,比如里边的

SPIDER_MODULES = ['jianshu_test.spiders']

就是设置爬虫的路径

middleware

里边用来放middleware的一个组件,也可以是自己的组件,scrapy里边有很多已经很强大的middleware了。

在进入项目的目录下,输入命令

scrapy genspider jobbole blog.jobbole.com

就会生成一个新的项目,jobbole的一个文件:

# -*- coding: utf-8 -*-
import scrapy


class JobboleSpider(scrapy.Spider):
    name = 'jobbole'
    allowed_domains = ['blog.jobbole.com']
    start_urls = ['http://blog.jobbole.com/']

    def parse(self, response):
        pass

里边这个allowed_domains这个设置可以参考一下,将来就可以不用middleware来过滤这里边的请求了。

想要调试scrapy里边的变量,可以用:

from scrapy.cmdline import execute

import sys
import os
sys.path.append(os.path.dirname(os.path.abspath(__file__)))
#需要进入当前的文件的父目录才能运行cmd命令
execute('scrapy crawl jobbole'.split(' '))

当出现win32缺失

pip install -i https://pypi.douban.com/simple pypiwin32

上边这个pip 安装语法也是很多安装其他包时可以用到的选择之一

xpath的语法-谓语

表达式 说明
article 选取所有article元素的所有子节点
/article 选取根元素article
article/a 选取所有属于article的子元素的a元素
//div 选取所有div子元素(不管出现在文档的任何地方)
article//div 选取所有属于article元素的后代的div元素,不管它出现在article之下的任何位置
//@class 选取出所有class属性的值
/article/div[1] 选取属于div元素的所有子节点
/article/div[last()] 选取属于article子元素的最后一个div元素
article/div[last()-1] 选取属于article子元素的倒数第二个div元素
//div[@lang] 选取所有拥有lang属性的div元素
//div[@lang='eng'] 选取所有lang属性为eng的div元素
/div/* 选取属于div元素的所有子节点
//* 选取所有元素
//div[@*] 选取所有带属性的title元素?
/div/a|//div/p 选取所有div元素的a和p元素
//span|//ul 选取文档中的span和ul元素
article/div/p|//span 选取所有属于article元素的div元素的p元素,以及文档中所有span元素
/text() 获得当前标签下的值

scrapy提供了shell脚本,

scrapy shell url

scrapy shell 返回的脚本

可以看到里边有很多对象可以使用,一般用的多的是response
如使用

title=response.xpath("//div[@class='entry-header']/h1/text()")

就可以得到结果

xpath的结果

像碰到'\r\n'这样的结果的,可以通过strip来过滤掉,虽然我很多时候strip都没有用。
当一个class中很多个类别的时候,可以用xpath的一个内置函数contains

response.xpath("//span[contains(@class,'vote-ppost-up')]/h10/text()")

这样就可以取到class中包含某一属性的值了。
如果碰到‘1评论、‘1收藏’之类的结果,而只想取其中的数字的话,除了手动的split和replace之外,还可以使用正则表达式

import re
match_re=re.match(".*(\d+).*","1 收藏“)
if match_re:
    print match_re.group(1)

当抓取到的数组里边可能会出现'1 收藏'这样的字符,但是也有可能不出现,这样的时候想要去掉里边‘收藏'这样的字符的话,可以用

[element for element in tag_list  if not element.endswith("评论")]

用一个','来合并一个list

result=','.join(tag_list)
css选择器
表达式 说明
* 选取所有子节点
#container _ 选择id为container的节点
.container 选择所有class包含container的节点
li a 选取所有li下的所有a节点
ul + p 选择ul后面的第一个p元素
div #
container > ul 选取di为container的div的第一个ul的子元素
ul ~ p 选取与ul相邻的所有p元素
a[title] 选取素有title属性的a元素
a[href="http://jobbole.com"] 选取所有href属性为jobble.com的a元素
css选择器的几个需要注意的用法
css选择器的用法
补充:css选择器12-5

css选择器中的:nth-of-type(1)选择的时在这个div下的第一个,而不是匹配在全文中找到的第几个;
css选择器中的div > li::text和div > li::attr(text)这两个方法都不好使,我的解决方案是:

from w3lib.html import remove_tags
data=remove_tags(str(one_reslut))
print data

上边的这两种写法只能用在scrapy的css选择器中:css('a[href=image]::attr(href)')
selenium中选择器的结果不能是text类型

         publish_user=one_user_publish_content.find_elements_by_xpath('//span[@class="fcg"]/span[@class="fwb"]/a/text()')

selenium.common.exceptions.InvalidSelectorException: Message: invalid selector: The result of the xpath expression "//span[@class="fcg"]/span[@class="fwb"]/a/text()" is: [object Text]. It should be an element.
(Session info: chrome=62.0.3202.94)
(Driver info: chromedriver=2.33.506120 (e3e53437346286c0bc2d2dc9aa4915ba81d9023f),platform=Windows NT 10.0.15063 x86_64)

xpath选中多个标签:

Books/book[@author='John' and @year='2009' and @language='En']

.. 表示当前节点的父节点

更加偏门的用法:

选取父节点:

选取父节点的用法.png

选取所有子节点
选取所有子节点.png

选取当前结点的所有属性:
选取当前节点的所有属性

发现一片不错的博客
http://blog.csdn.net/a26r2kf967hgai/article/details/78852207

包含指定文本内容的标签:

browser.find_element_by_xpath('//button/span[contains(text(), "指定文本内容")]').click()

你可能感兴趣的:(8-25-(经常更新)xpath和css选择器的用法)