python-xpath页面解析

1. 解析页面模块比较:

  • 正则表达式是进行内容匹配,将符合要求的内容全部获取;

  • xpath()能将字符串转化为标签,它会检测字符串内容是否为标签,但是不能检测出内容是否为真的标签;

  • Beautifulsoup是Python的一个第三方库,它的作用和 xpath 作用一样,都是用来解析html数据的相比之下;xpath的速度会快一点,因为xpath底层是用c来实现的

2.三者语法不同,正则表达式使用元字符,将所有获得内容与匹配条件进行匹配,而xpath和bs4将获取的解析后的源码进行按条件筛选,筛选出想要的标签即根据标签属性来找到指定的标签,之后对标签进行对应内容获取;

xpath:全称XML PATH Language, 一种小型的查询语言;
支持的解析:
XML格式
html格式
通过元素,和属性进行导航

xpath常用规则
python-xpath页面解析_第1张图片
xpath 常用运算符
python-xpath页面解析_第2张图片

import lxml.etree as etree

# 1). 将html内容转化成xpath可以解析/匹配的格式;
html = """



    xpath测试
    


  • NO.1
  • NO.2
  • NO.3
  • one
  • two
""" # print(type(html)) selector = etree.HTML(html) # 2). # //: 对全文进行扫描 # //div # //div[@id="content"] str = selector.xpath('//div[@id="content"]/ul[@id="ul"]/li/text()') # 全文里搜索div标签-->筛选id = content的所有div标签--->再筛选出ul标签里id='ul'的标签---->li标签--->提取文字 # 输出的str为列表 print(str) print(type(str)) # str为列表类型

输出:

['NO.1', 'NO.2', 'NO.3']


需求: 获取文件中div的属性id为”url“里面的所有a标签的href属性

str = selector.xpath('//div[@id="url"]/a/@href')
print(str)

输出:

['http:www.58.com', 'http:www.csdn.net']

# 获取符合条件的标签内容;
str = selector.xpath('//div[@id="content"]')[0].extract()
print(str)

你可能感兴趣的:(python,爬虫)