python爬虫:XPath语法和使用示例
XPath(XML Path Language)是一门在XML文档中查找信息的语言,可以用来在XML文档中对元素和属性进行遍历。
选取节点
XPath使用路径表达式来选取XML文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。
常用路径表达式:
表达式
描述
nodename
选取此节点的所有子节点。
/
从根节点选取。
//
从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
.
选取当前节点。
..
选取当前父节点。
@
选取属性。
text()
选取文本内容。
实例
在下面的表格中,列出一些路径表达式以及表达式的结果:
路径表达式
结果
bookstore
选取bookstore元素
/bookstore
选取根元素bookstore。注释:假如路径起始于(/),则此路径始终代表到某元素的绝对路径。
bookstore/book
选取属于bookstore的子元素的所有book元素。
//book
选取所有book子元素,而不管他们在文档中的位置。
bookstore//book
选择属于bookstore元素的后代的所有book元素,而不管它们位于bookstore之下的什么位置。
//book/title/@lang
选择所有的book下面的title中的lang属性的值。
//book/title/text()
选择所有的book下面的title的文本。
查找特定的节点
路径表达式
结果
//title[@lang]
选取所有拥有名为lang的属性的title元素。
//title[@lang="eng"]
选取lang属性值为eng的所有title元素。
/bookstore/book[1]
选取属于bookstore子元素的第一个book元素。
/bookstore/book[last()]
选取属于bookstore子元素的最后一个book元素。
/bookstore/book[position()>1]
选择bookstore下面的book元素,从第二个开始选择。
//book/title[text()='Harry Potter']
选择所有book下的title元素,仅仅选择文本为Harry Potter的title元素。
/bookstore/book[price>35.00]/title
选取bookstore元素中的book元素的所有title元素,且其中的price元素的值需大于35.00。
注意点:在xpath中,第一个元素的位置是1,最后一个元素的位置是last(),倒数第二个是last()-1。
选取未知节点
XPath通配符可用来选取未知的XML元素。
通配符
描述
*
匹配任何元素节点。
@*
匹配任何属性的节点。
node()
匹配任何类型的节点。
实例
在下面的表格中,列出一些路径表达式以及表达式的结果:
路径表达式
结果
//bookstore/*
选取bookstore元素的所有子元素。
//*
选取文档中的所有元素。
//title[@*]
选取所有带属性的title元素。
选取若干路径
通过在路径表达式中使用"|"运算符,您可以选取若干个路径。
实例
在下面的表格中,列出一些路径表达式以及表达式的结果:
路径表达式
结果
//book/title | //book/price
选取book元素的所有title和price元素。
//title | //price
选取文档中的所有title和price元素。
/bookstore/book/title | //price
选取属于bookstore元素的book元素的所有title元素,以及文档中所有的price元素。
使用技巧
在一般的爬虫实战中,XPath路径可以通过谷歌浏览器或火狐浏览器中复制得到,如下图:
但是对于新手可以多多尝试自己写XPath路径,因为有时候复制获取的XPath路径过长,而自己写的更简洁写。
例子:
import requests
from lxml import etree
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'
}
url = 'http://www.qiushibaike.com/text/'
res = requests.get(url, headers=headers)
selector = etree.HTML(res.text)
id = selector.xpath('//div[@class="article block untagged mb15 typs_long"]/div[1]/a[2]/h2/text()')
print(''.join(id).strip())
# 注意:通过/text()可以获取标签中的文字信息。
# 结果为:璃白°
几种解析方式的性能对比
爬取方法
性能
使用难度
正则表达式
快
困难
BeautifulSoup
慢
简单
Lxml
快
简单
爬取豆瓣图书TOP250
爬取的例子直接输出到屏幕。
需求分析:
(1)要爬取的内容为豆瓣图书top250的信息,如下图所示:
(3)需要爬取的信息有:书名,书本的链接,作者,出版社,出版日期评分和评价。
具体代码如下:
# -*- encoding:utf8 -*-
# 爬取豆瓣图书TOP250。
import requests
from lxml import etree
# 请求头,用来模拟浏览器
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'
}
def get_info(url):
res = requests.get(url, headers=headers).text
# lxml库的etree解析html
selector = etree.HTML(res)
# 获取的是一页中所有的书本信息,每本的所以信息都在类为item的tr下面。
infos = selector.xpath("//tr[@class='item']")
for info in infos:
# 书名
name = info.xpath('td/div/a/@title')[0]
# 书的链接地址
book_url = info.xpath('td/div/a/@href')[0]
# 获取的是书本的基本信息,有作者和出版社,和出版日期...
book_infos = info.xpath('td/p/text()')[0]
# 作者
author = book_infos.split('/')[0]
# 出版社
publisher = book_infos.split('/')[-3]
# 出版日期
date = book_infos.split('/')[-2]
# 价格
price = book_infos.split('/')[-1]
# 书本的评分
rate = info.xpath('td/div/span[2]/text()')[0]
# 下面的评论
comments = info.xpath('td/p/span/text()')
# 这里单行的if语句是:如果comments的长度不为0时,则把comments的第1个元素给comment,否则就把"空"赋值给comment
comment = comments[0] if len(comments) != 0 else "空"
print(name + " " + book_url + " " + book_infos + " " + author + " " + publisher + " " + date + " " + price + " " + rate + " " + comment)
print()
# 获取下一页的url
if selector.xpath("//span[@class='next']/a"):
next_pag = selector.xpath("//span[@class='next']/a/@href")
get_info(''.join(next_pag))
if __name__ == "__main__":
url = 'https://book.douban.com/top250'
get_info(url)
部分结果如下图所示: