《Python3 网络爬虫开发实战》:网页解析利器 XPath

XPath,全称是 XML Path Language,即 XML 路径语言,它是一门在 XML 文档中查找信息的语言。它最初是用来搜寻 XML 文档的,但是它同样适用于 HTML 文档的搜索。

所以在做爬虫时,我们完全可以使用 XPath 来做相应的信息抽取。本节我们就来了解下 XPath 的基本用法。


1. XPath 概览

XPath 的选择功能十分强大,它提供了非常简洁明了的路径选择表达式。另外,它还提供了超过 100 个内建函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。几乎所有我们想要定位的节点,都可以用 XPath 来选择。

XPath 于 1999 年 11 月 16 日成为 W3C 标准,它被设计为供 XSLT、XPointer 以及其他 XML 解析软件使用,

2. XPath 常用规则

下表列举了 XPath 的几个常用规则。

表 XPath 常用规则
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第1张图片
在这里插入图片描述
这就是一个 XPath 规则,它代表选择所有名称为 title,同时属性 lang 的值为 eng 的节点。

后面会通过 Python 的 lxml 库,利用 XPath 进行 HTML 的解析。

3. 准备工作

使用之前,首先要确保安装好 lxml 库。如尚未安装,可以使用 pip3 来安装:

4. 实例引入

现在通过实例来感受一下使用 XPath 对网页进行解析的过程,相关代码如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第2张图片
这里首先导入 lxml 库的 etree 模块,然后声明了一段 HTML 文本,调用 HTML 类进行初始化,这样就成功构造了一个 XPath 解析对象。这里需要注意的是,HTML 文本中的最后一个 li 节点是没有闭合的,但是 etree 模块可以自动修正 HTML 文本。

这里我们调用 tostring 方法即可输出修正后的 HTML 代码,但是结果是 bytes 类型。这里利用 decode 方法将其转成 str 类型,结果如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第3张图片
可以看到,经过处理之后,li 节点标签被补全,并且还自动添加了 body、html 节点。

另外,也可以直接读取文本文件进行解析,示例如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第4张图片
其中 test.html 的内容就是上面例子中的 HTML 代码,内容如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第5张图片
这次的输出结果略有不同,多了一个 DOCTYPE 声明,不过对解析无任何影响,结果如下
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第6张图片

5. 所有节点

我们一般会用 // 开头的 XPath 规则来选取所有符合要求的节点。这里以前面的 HTML 文本为例,如果要选取所有节点,可以这样实现:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第7张图片
这里使用 * 代表匹配所有节点,也就是整个 HTML 文本中的所有节点都会被获取。可以看到,返回形式是一个列表,每个元素是 Element 类型,其后跟了节点的名称,如 html、body、div、ul、li、a 等,所有节点都包含在列表中了。

当然,此处匹配也可以指定节点名称。如果想获取所有 li 节点,示例如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第8张图片
这里可以看到,提取结果是一个列表形式,其中每个元素都是一个 Element 对象。如果要取出其中一个对象,可以直接用中括号加索引,如 [0]。

6. 子节点

我们通过 / 或 // 即可查找元素的子节点或子孙节点。假如现在想选择 li 节点的所有直接子节点 a,可以这样实现:

《Python3 网络爬虫开发实战》:网页解析利器 XPath_第9张图片
这里通过追加 /a 即选择了所有 li 节点的所有直接子节点 a。因为 //li 用于选中所有 li 节点,/a 用于选中 li 节点的所有直接子节点 a,二者组合在一起即获取所有 li 节点的所有直接子节点 a。


此处的 / 用于选取直接子节点,如果要获取所有子孙节点,就可以使用 //。例如,要获取 ul 节点下的所有子孙节点 a,可以这样实现:

《Python3 网络爬虫开发实战》:网页解析利器 XPath_第10张图片
因此,这里我们要注意 / 和 // 的区别,其中 / 用于获取直接子节点// 用于获取子孙节点。

7. 父节点

我们知道通过连续的 / 或 // 可以查找子节点或子孙节点,那么假如我们知道了子节点,怎样来查找父节点呢?这可以用. .来实现。

比如,现在首先选中 href 属性为 link4.html 的 a 节点,然后获取其父节点,再获取其 class 属性,相关代码如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第11张图片
检查一下结果发现,这正是我们获取的目标 li 节点的 class 属性。

同时,我们也可以通过 parent:: 来获取父节点,代码如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第12张图片

8. 属性匹配

在选取的时候,我们还可以用 @ 符号进行属性过滤。比如,这里如果要选取 class 为 item-0 的 li 节点,可以这样实现
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第13张图片
这里我们通过加入 [@class=“item-0”],限制了节点的 class 属性为 item-0,而 HTML 文本中符合条件的 li 节点有两个,所以结果应该返回两个匹配到的元素。结果如下:
在这里插入图片描述

可见,匹配结果正是两个,至于是不是那正确的两个,后面再验证。

9. 文本获取

我们用 XPath 中的 text 方法获取节点中的文本,接下来尝试获取前面 li 节点中的文本,相关代码如下:

《Python3 网络爬虫开发实战》:网页解析利器 XPath_第14张图片
在这里插入图片描述
奇怪的是,我们并没有获取到任何文本,只获取到了一个换行符,这是为什么呢?因为 XPath 中 text 方法前面是 /,而此处 / 的含义是选取直接子节点,很明显 li 的直接子节点都是 a 节点,文本都是在 a 节点内部的,所以这里匹配到的结果就是被修正的 li 节点内部的换行符,因为自动修正的 li 节点的尾标签换行了。

即选中的是这两个节点:

不出所料,这里的返回结果是 3 个。可想而知,这里是选取所有子孙节点的文本,其中前两个就是 li 的子节点 a 内部的文本,另外一个就是最后一个 li 节点内部的文本,即换行符。

所以说,如果要想获取子孙节点内部的所有文本,可以直接用 // 加 text 方法的方式,这样可以保证获取到最全面的文本信息,但是可能会夹杂一些换行符等特殊字符。如果想获取某些特定子孙节点下的所有文本,可以先选取到特定的子孙节点,然后再调用 text 方法获取其内部文本,这样可以保证获取的结果是整洁的

12. 多属性匹配

另外,我们可能还遇到一种情况,那就是根据多个属性确定一个节点,这时就需要同时匹配多个属性。此时可以使用运算符 and 来连接,示例如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第15张图片
这里的 li 节点又增加了一个属性 name。要确定这个节点,需要同时根据 class 和 name 属性来选择,一个条件是 class 属性里面包含 li 字符串,另一个条件是 name 属性为 item 字符串,二者需要同时满足,需要用 and 操作符相连,相连之后置于中括号内进行条件筛选。运行结果如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第16张图片
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第17张图片
3. 按序选择
有时候,我们在选择的时候某些属性可能同时匹配了多个节点,但是只想要其中的某个节点,如第二个节点或者最后一个节点,这时该怎么办呢?
这时可以利用中括号传入索引的方法获取特定次序的节点,示例如下:
《Python3 网络爬虫开发实战》:网页解析利器 XPath_第18张图片
第一次选择时,我们调用了 ancestor 轴,可以获取所有祖先节点。其后需要跟两个冒号,然后是节点的选择器,这里我们直接使用 *,表示匹配所有节点,因此返回结果是第一个 li 节点的所有祖先节点,包括 html、body、div 和 ul。

第二次选择时,我们又加了限定条件,这次在冒号后面加了 div,这样得到的结果就只有 div 这个祖先节点了。

第三次选择时,我们调用了 attribute 轴,可以获取所有属性值,其后跟的选择器还是 *,这代表获取节点的所有属性,返回值就是 li 节点的所有属性值。

第四次选择时,我们调用了 child 轴,可以获取所有直接子节点。这里我们又加了限定条件,选取 href 属性为 link1.html 的 a 节点。

第五次选择时,我们调用了 descendant 轴,可以获取所有子孙节点。这里我们又加了限定条件获取 span 节点,所以返回的结果只包含 span 节点而不包含 a 节点。

第六次选择时,我们调用了 following 轴,可以获取当前节点之后的所有节点。这里我们虽然使用的是 * 匹配,但又加了索引选择,所以只获取了第二个后续节点。

第七次选择时,我们调用了 following-sibling 轴,可以获取当前节点之后的所有同级节点。这里我们使用 * 匹配,所以获取了所有后续同级节点。
15. 总结
到现在为止,我们基本上把可能用到的 XPath 选择器介绍完了。XPath 功能非常强大,内置函数非常多,熟练使用之后,可以大大提升 HTML 信息的提取效率。

你可能感兴趣的:(爬虫,python,开发语言)