python爬虫6:lxml库

python爬虫6:lxml库

前言

​ python实现网络爬虫非常简单,只需要掌握一定的基础知识和一定的库使用技巧即可。本系列目标旨在梳理相关知识点,方便以后复习。

申明

​ 本系列所涉及的代码仅用于个人研究与讨论,并不会对网站产生不好影响。

目录结构

文章目录

    • python爬虫6:lxml库
      • 1. 简介
      • 2. 使用与语法
        • 2.1 初始化
        • 2.2 方法基础
        • 2.3 寻找节点
        • 2.4 筛选节点
        • 2.5 获取属性值或文本内容
      • 3. 总结

1. 简介

​ lxml库是python的第三方库,安装方式也是十分简单(pip安装),这里就不多赘述。而lxml库的特点就是简单和易上手,并且解析大型文档(特指xml或html文档)的速度也是比较快的,因此写爬虫解析网页的时候它也是我们的一个不错的选择。

这里大家需要明白一个事情:解析网页,其实就是去获取网页源码中的某些节点中的文本内容或属性值。举个例子,比如我们爬取的是小说网站,那么一般获取的是html代码中某些节点的文本值,再比如我们爬取图片网站,那么一般获取的是html代码中某些节点的属性值,这个属性值一般为url地址,但是这个地址指向的是图片内容而已。

2. 使用与语法

2.1 初始化

初始化:使用lxml库的第一个步骤永远是初始化,只有初始化之后我们才可以去使用它的语法。

​ 初始化方法:

html = etree.HTML(text)

​ 其中:

text : html内容的字符串
html :  一个lxml库的对象 

​ 例子:

from lxml import etree		#我们主要使用的lxml库中的etree库
text = '''

    
清空
发送
'''
#开始初始化 html = etree.HTML(text) #这里需要传入一个html形式的字符串

2.2 方法基础

​ lxml库的语法就是基于xpath语法来的,所以会了xpath语法,自然就会了lxml语法。而在lxml库中,加载xpath语法的方法为:html.xpath('xpath语法')

​ 而且观察返回的结果,发现大部分返回的都是以列表的形式返回的结果,这一点请注意。

2.3 寻找节点

语法 含义
nodename(节点名字) 直接根据写的节点名字查找节点,如:div
// 在当前节点下的子孙节点中寻找,如://div
/ 在当前节点下的子节点中寻找,如:/div
. 代表当前节点(可省略不写,就像我们有时候写的相对路径),如:./div
当前节点的父节点,如:…/div

​ 下面来个例子:

from lxml import etree

text = '''

    
这时测试的div
这是嵌套的div标签

这时嵌套的p标签

这时测试的p

'''
html = etree.HTML(text) result = html.xpath('//div') #使用xpath语法,一是在子孙节点中寻找,二是寻找div的标签 print(result) #结果: #[, , ]

2.4 筛选节点

​ 上面只是找到节点,但是找到符合条件的结果非常多,因此我们需要进行筛选工作。

​ **重要说明:**当我们使用筛选时,筛选的方法都是包含在[](中括号)中的。

方法集合一:属性筛选:

方法名\符号 作用
@ 获取属性或者筛选属性,如:@class
contains 判断属性中是否含有某个值(用于多值判断),如:contains(@class,‘hello’)

​ 属性筛选示例:

from lxml import etree

text = '''

Hello,this is used to tested

你好,这是用于测试的html代码

方法集合二:按序选择:

​ 有时候我们会有这样的需求,我们爬取的内容是一个table标签(表格标签),或者一个ul(标签),了解过html的应该都知道这样的标签,内部还有很多标签,比如table标签里就有tr、td等,ul里面就有li标签等。对于这样的标签,我们有时候需要选择第一个或者最后一个或者前几个等。这样的方式我们也可以实现。

方法 作用
last() 获取最后一个标签
1 获取第一个标签
position() < = > num 筛选多个标签(具体见实例)

​ 注意:这里需要注意这里的序是从1开始而不是从0开始

from lxml import etree

text = '''
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
'''
#初始化 html = etree.HTML(text) #获取第一个li标签 first_tag = html.xpath('//li[1]') #令人吃惊,lxml并没有first()方法 print(first_tag) #获取最后一个li标签 last_tag = html.xpath('//li[last()]') print(last_tag) #获取前五个标签 li_tags = html.xpath('//li[position() < 6]') print(li_tags)

方法集合三:逻辑和计算

​ 其实在写筛选时是可以加入逻辑方法的,如:and、or、>、>=等。当然也是可以写入一些计算方法的,如:+、-等。

​ 下面给出示例:

from lxml import etree

text = '''
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
'''
#初始化 html = etree.HTML(text) #获取第二个li标签,使用=判断 second_tag = html.xpath('//li[position() = 2]') print(second_tag) #获取第一个和第二个标签,使用or tags = html.xpath('//li[position() = 1 or position() = 2]') print(tags) #获取前三个标签,使用< three_tags = html.xpath('//li[position()<4]') print(three_tags)

2.5 获取属性值或文本内容

​ 我们寻找标签、筛选标签的最终目的就是获取它的属性或者文本内容。下面讲解获取文本和属性的方法。

方法 作用
@ 获取属性或者筛选属性
text() 获取文本

​ 举个例子:

from lxml import etree

text = '''

Hello,this is used to tested

你好,这是用于测试的html代码

​ 获取属性示例:

from lxml import etree

text = '''

Hello,this is used to tested

你好,这是用于测试的html代码

3. 总结

​ 本篇内容为大家介绍了python爬虫解析库中最为常用的lxml库,其核心的内容在于获取节点、筛选节点、获取节点文本或属性值

​ 下一篇会以之前讲解的requests+lxml进行一个实战。

你可能感兴趣的:(python爬虫系列,python,爬虫,开发语言)