爬虫之XPath高级篇

一 属性获取

1 点睛

用@符号就可以

2 代码

from lxml import etree

html = etree.parse('./test.html', etree.HTMLParser())
# 获取所有li节点下所有a节点的href属性
result = html.xpath('//li/a/@href')
print(result)

3 结果

E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py
['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']

4 说明

我们成功获取了所有li节点下a节点的href属性,它们以列表形式返回。

二 属性多值匹配

1 无法匹配情况

1.1 代码

from lxml import etree
text = '''
  • first item
  • ''' html = etree.HTML(text) # 通过下面方式无法实现属性多值匹配 result = html.xpath('//li[@class="li"]/a/text()') print(result)

    1.2 运行结果

    E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py
    []

    2 属性多值匹配

    2.1 代码

    from lxml import etree
    text = '''
    
  • first item
  • ''' html = etree.HTML(text) # 通过contains实现属性多值匹配 # contains()方法,第一个参数传入属性名称,第二个参数传入属性值, # 只要此属性包含所传入的属性值,就可以完成匹配了。 result = html.xpath('//li[contains(@class, "li")]/a/text()') print(result)

    2.2 结果

    E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py
    ['first item']

    三 多属性匹配

    1 点睛

    我们可能还遇到一种情况,那就是根据多个属性确定一个节点,这时就需要同时匹配多个属性。此时可以使用运算符and来连接。

    2 代码

    from lxml import etree
    text = '''
    
  • first item
  • ''' html = etree.HTML(text) result = html.xpath('//li[contains(@class, "li") and @name="item"]/a/text()') print(result)

    3 结果

    E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py
    ['first item']

    4 说明

    这里的li节点又增加了一个属性name。要确定这个节点,需要同时根据class和name属性来选择,一个条件是class属性里面包含li字符串,另一个条件是name属性为item字符串,二者需要同时满足,需要用and操作符相连,相连之后置于中括号内进行条件筛选。

    四 按序选择

    1 点睛

    有时候,我们在选择的时候某些属性可能同时匹配了多个节点,但是只想要其中的某个节点,如第二个节点或者最后一个节点,这时该怎么办呢?

    这时可以利用中括号传入索引的方法获取特定次序的节点

    2 代码

    from lxml import etree
    
    text = '''
    
    '''
    html = etree.HTML(text)
    result = html.xpath('//li[1]/a/text()')
    print(result)
    result = html.xpath('//li[last()]/a/text()')
    print(result)
    result = html.xpath('//li[position()<3]/a/text()')
    print(result)
    result = html.xpath('//li[last()-2]/a/text()')
    print(result)

    3 运行结果

    E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py
    ['first item']
    ['fifth item']
    ['first item', 'second item']
    ['third item']

    4 说明

    第一次选择时,我们选取了第一个li节点,中括号中传入数字1即可。注意,这里和代码中不同,序号是以1开头的,不是以0开头。

    第二次选择时,我们选取了最后一个li节点,中括号中传入last()即可,返回的便是最后一个li节点。

    第三次选择时,我们选取了位置小于3的li节点,也就是位置序号为1和2的节点,得到的结果就是前两个li节点。

    第四次选择时,我们选取了倒数第三个li节点,中括号中传入last()-2即可。因为last()是最后一个,所以last()-2就是倒数第三个。

    五 节点轴选择

    1 点睛

    XPath提供了很多节点轴选择方法,包括获取子元素、兄弟元素、父元素、祖先元素等。

    2 代码

    from lxml import etree
    
    text = '''
    
    '''
    html = etree.HTML(text)
    result = html.xpath('//li[1]/ancestor::*')
    print(result)
    result = html.xpath('//li[1]/ancestor::div')
    print(result)
    result = html.xpath('//li[1]/attribute::*')
    print(result)
    result = html.xpath('//li[1]/child::a[@href="link1.html"]')
    print(result)
    result = html.xpath('//li[1]/descendant::span')
    print(result)
    result = html.xpath('//li[1]/following::*[2]')
    print(result)
    result = html.xpath('//li[1]/following-sibling::*')
    print(result)

    3 运行结果

    E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py
    [, , , ]
    []
    ['item-0']
    []
    []
    []
    [, , , ]

    4 说明

    第一次选择时,我们调用了ancestor轴,可以获取所有祖先节点。其后需要跟两个冒号,然后是节点的选择器,这里我们直接使用*,表示匹配所有节点,因此返回结果是第一个li节点的所有祖先节点,包括html、body、div和ul。

    第二次选择时,我们又加了限定条件,这次在冒号后面加了div,这样得到的结果就只有div这个祖先节点了。

    第三次选择时,我们调用了attribute轴,可以获取所有属性值,其后跟的选择器还是*,这代表获取节点的所有属性,返回值就是li节点的所有属性值。

    第四次选择时,我们调用了child轴,可以获取所有直接子节点。这里我们又加了限定条件,选取href属性为link1.html的a节点。

    第五次选择时,我们调用了descendant轴,可以获取所有子孙节点。这里我们又加了限定条件获取span节点,所以返回的结果只包含span节点而不包含a节点。

    第六次选择时,我们调用了following轴,可以获取当前节点之后的所有节点。这里我们虽然使用的是*匹配,但又加了索引选择,所以只获取了第二个后续节点。

    第七次选择时,我们调用了following-sibling轴,可以获取当前节点之后的所有同级节点。这里我们使用*匹配,所以获取了所有后续同级节点。

    你可能感兴趣的:(爬虫)