爬虫必备Beautiful Soup包使用详解

使用Beautiful Soup解析数据

Beautiful Soup是一个用于从HTML和XML文件中提取数据的Python模块。Beautiful Soup提供一些简单的函数用来处理导航、搜索、修改分析树等功能。Beautiful Soup 模块中的查找提取功能非常强大,而且非常便捷。Beautiful Soup自动输入文档转换为Unicode编码,输出文档转换为UTF-8编码。开发者不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。

Beautiful Soup 的安装

目前推荐使用的是Beautiful Soup 4, 已经被移植到bs4当中,需要from bs4 然后导入Beautiful Soup 。

pip install bs4

解析器

Beautiful Soup支持Python标准库中包含的HTML解析器,但它也支持许多第三方Python解析器,其中包含lxml解析器。根据不同的操作系统,您可以使用以下命令之一安装lxml:

§ apt-get install python-lxml

§ easy_install lxml

§ pip install lxml

另一个解析器是html5lib,它是一个用于解析HTML的Python库,按照Web浏览器的方式解析HTML。您可以使用以下命令之一安装html5lib:

§ apt-get install python-html5lib

§ easy_install html5lib

§ pip install html5lib

关于每个解析器的优缺点如下表:

解析器 用   法 优 点 缺 点
Python标准库 BeautifulSoup(markup, 'html.parser') Python 标准库执行速度适中 (在Python2.7.3或3.2.2之前的版本中)文档容错能力差
lxml的HTML解析器 BeautifulSoup(markup, 'lxml') 速度快文档容错能力强 需要安装C语言库
lxml的XML解析器 BeautifulSoup(markup, 'lxml-xml')
BeautifulSoup(markup,'xml')
速度快唯一支持XML的解析器 需要安装C语言库
html5lib BeautifulSoup(markup, 'html5lib') 最好的容错性,以浏览器的方式解析文档生成HTML5格式文档 速度慢,不依赖外部扩展

Beautiful Soup的简单应用

Beautiful Soup安装完成以后,下面将将介绍如何通过Beautiful Soup 库进行HTML的解析工作,具体示例步骤如下:

(1)导入bs4库,然后创建一个模拟HTML代码的字符串,代码如下:

# 作者      :liuxiaowei
# 创建时间   :2/5/22 9:25 PM
# 文件      :使用BeautifulSoup解析HTML代码.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


第一个 HTML 页面


body 元素的内容会显示在浏览器中。

title 元素的内容会显示在浏览器的标题栏中。

"""

(2)创建BeautifulSoup对象,并指定解析器为lxml,最后通过打印的方式将解析的HTML代码显示在控制台当中,代码如下:

# 创建一个BeautifulSoup对象,获取页面正文
soup = BeautifulSoup(html_doc, features="lxml")
print(soup)                  # 打印解析的HTML代码
print(type(soup))            # 打印数据类型

程序运行结果如下:



第一个 HTML 页面


body 元素的内容会显示在浏览器中。

title 元素的内容会显示在浏览器的标题栏中。

说 明

如果将html_doc字符串中的代码,保存在index.html文件中,可以通过打开HTML文件的方式进行代码解析,并且可以通过prettify()方法进行代码的格式化处理,代码如下:

with open('index.html', 'w') as f:
  f.write('html_doc')
soup = BeautifulSoup(open("index.html"), "lxml")
print(soup.prettify())

获取节点内容

使用Beautiful Soup 可以直接调用节点的名称,然后再调用对应的string属性便可以获取到节点内的文本信息。在单个节点结构层次非常清晰的情况下,使用这种方式提取节点信息的速度是非常快的。

获取节点对应的代码

示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/5/22 9:25 PM
# 文件      :使用BeautifulSoup解析HTML代码.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


第一个 HTML 页面


body 元素的内容会显示在浏览器中。

title 元素的内容会显示在浏览器的标题栏中。

""" # 创建一个BeautifulSoup对象,获取页面正文 with open('index.html', 'w') as f:     f.write(html_doc) soup = BeautifulSoup(open('index.html'), "lxml") print(soup.prettify())

程序运行结果如下:

head节点内容为:
 
第一个 HTML 页面

body节点内容为:
 

body 元素的内容会显示在浏览器中。

title 元素的内容会显示在浏览器的标题栏中。

title节点内容为:  第一个 HTML 页面 p节点内容为:  

body 元素的内容会显示在浏览器中。

注 意

在打印p节点对应的代码时,会发现只打印了第一个P节点内容,这说明当多个节点时,该选择方式只会获取第一个节点中的内容,其他后面的节点将被忽略。

  • 说 明

    除了通过制订节点名称的方式获取节点内容以外,还可以使用name属性获取节点的名称,示例代码如下:

    # 获取节点名称
    print(soup.head.name)
    print(soup.body.name)
    print(soup.title.name)
    print(soup.p.name)

    程序运行结果如下:

    head
    body
    title
    p

获取节点属性

每个节点可能都会含有多个属性,例如, class或者id等。如果已经选择了一个指定的节点名称,那么只需要调用attrs即可获取这个节点下的所有属性。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 10:17 AM
# 文件      :获取节点属性.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


    横排响应式登录
    
    
    
    


登录

""" # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print('meta节点中属性如下:\n',soup.meta.attrs) print('link节点中属性如下:\n',soup.link.attrs) print('div节点中属性如下:\n',soup.div.attrs) print('div节点中input属性如下:\n', soup.div.input.attrs)

程序运行结果如下:

meta节点中属性如下:
 {'http-equiv': 'Content-Type', 'content': 'text/html', 'charset': 'utf-8'}
link节点中属性如下:
 {'href': 'font/css/bootstrap.min.css', 'type': 'text/css', 'rel': ['stylesheet']}
div节点中属性如下:
 {'class': ['glyphicon', 'glyphicon-envelope']}
div节点中input属性如下:
 {'type': 'text', 'placeholder': '请输入邮箱'}

在以上的运行结果中可以发现,attrs的返回结果为字典类型,字典中的元素分别是对应属性名称与对应的值。所以

在attrs后面添加[]括号并在括号内添加属性名称即可获取指定属性对应的值。代码如下:

print('meta节点中http-equiv属性对应的值为:', soup.meta.attrs['http-equiv'])
print('link节点中href属性对应的值为:', soup.link.attrs['href'])
print('div节点中class属性对应的值为:', soup.div.attrs['class'])

程序运行结果如下:

meta节点中http-equiv属性对应的值为:Content-Type
link节点中href属性对应的值为:font/css/bootstrap.min.css
div节点中class属性对应的值为: ['glyphicon', 'glyphicon-envelope']

在获取节点中指定属性所对应的值时,除了使用上面的方式外,还可以不写attrs,直接在节点后面以中括号的形式直接添加属性名称,来获取对应的值。代码如下:

print('meta节点中http-equiv属性对应的值为:', soup.meta['http-equiv'])
print('link节点中href属性对应的值为:', soup.link['href'])
print('div节点中class属性对应的值为:', soup.div['class'])

获取节点包含的文本内容

实现获取节点包含的文本内容是非常简单的,只需要在节点名称后面添加string属性即可。代码如下:

print('title节点内包含的文本内容为:', soup.title.string)
print('h3节点所包含的文本内容为:', soup.h3.string)

程序运行结果如下:

title节点内包含的文本内容为: 横排响应式登录
h3节点所包含的文本内容为: 登录

嵌套获取节点内容

HTML代码中的每个节点都会出现嵌套的可能,而使用Beautiful Soup获取每个节点的内容时,以通过“."直接获取下一个节点中的内容(当前节点的子节点)。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 11:49 AM
# 文件      :获取嵌套节点内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


    横排响应式登录
    
    
    
    


"""
# 创建一个BeautifulSoup对象,获取页面正文
soup = BeautifulSoup(html_doc, features="lxml")
print('head节点内容如下:\n',soup.head)
print('head节点数据类型为:',type(soup.head))
print('head节点中title节点内容如下:\n',soup.head.title)
print('head节点中title节点数据类型为:',type(soup.head.title))
print('head节点中title节点中的文本内容为:',soup.head.title.string)
print('head节点中title节点中文本内容的数据类型为:',type(soup.head.title.string))

程序运行结果如下:

head节点内容如下:
 
横排响应式登录





head节点数据类型为: 
head节点中title节点内容如下:
 横排响应式登录
head节点中title节点数据类型为: 
head节点中title节点中的文本内容为: 横排响应式登录
head节点中title节点中文本内容的数据类型为: 

说 明

在上面的运行结果中可以看出,在获取head与其内部的title节点内容时数据类型均为““,也就说明在Tag类型的基础上可以获取当前节点的子节点内容,这样的获取方式叫做嵌套获取节点内容。

关联获取

在获取节点内容时,不一定都能做到一步获取指定节点中的内容,有时还需要先确认某一个节点,然后以该节点为中心获取对应的子节点、孙节点、父节点以及兄弟节点。

1、获取子节点

在获取某节点下面的所有子节点时,可以使用contents或者是children属性来实现,其中contents返回的是一个列表,在这列表中的每个元素都是一个子节点内容,而children返回的则是一个"list_iterator"类型的可迭代对象。获取所有子节点的代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 1:18 PM
# 文件      :实现获取某节点下所有子节点内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    


"""
# 创建一个BeautifulSoup对象,获取页面正文
soup = BeautifulSoup(html_doc, features="lxml")
print(soup.head.contents)           # 列表形式打印head下所有子节点
print(soup.head.children)           # 可迭代对象形式打印head下所有子节点

程序运行结果如下:

['\n', 关联获取演示, '\n', , '\n']

从上面结果可以看出,通过head.contents所获取的所有子节点中有三个换行符\n以及两个子标题(title与meta)对应的所有内容。head.children所获取的则是一个'list_iterator'可迭代对象,如果需要的获取该对象中的所有内容可以直接将其转换为list类型或者通过for循环遍历的方式进行获取。代码如下:

print(list(soup.head.children))   # 打印将可迭代对象转换为列表形式的所有子节点
for i in soup.head.children:    # 循环遍历可迭代对象中的所有子节点
  print(i)             # 打印子节点内容

程序运行结果如下:

['\n', 关联获取演示, '\n', , '\n']


关联获取演示


2、获取孙节点

在获取某节点下面所有的子孙节点时,可以使用descendants属性来实现,该属性会返回一个generator对象,获取该对象中的所有内容时,同样可以直接将其转换为list 类型或者通过for循环遍历的方式进行获取。这里以for循环遍历方式为例,代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 2:06 PM
# 文件      :使用descendants属性获取子孙节点内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """

…此处省略…


    
        
                                 此处为演示信息                      
    
""" # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print(soup.body.descendants)          # 打印body节点下所有子孙节点内容的generator对象 for i in soup.body.descendants:       # 循环遍历generator对象中的所有子孙节点     print(i)                            # 打印子孙节点内容

程序运行如下:

  1. 所有子孙节点内容的generator对象

  • 
    
    
                      此处为演示信息             
  1. body节点下所有子节点内容

  1. body节点下所有孙节点及以下内容

    
    
                      此处为演示信息             
                    此处为演示信息             
                此处为演示信息                              此处为演示信息

3.获取父节点

获取父节点有两种方式:一种是通过parent属性直接获取指定节点的父节点内容,还可以 通过parents属性获取指定节点的父节点及以上(祖先节点)内容,只是parents属性会返回一个generator对象,获取该对象中的所有内容时,同样可以直接将其转换为list类型或者通过for 循环遍历的方式进行获取。这里以for循环遍历方式为例,代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 2:34 PM
# 文件      :获取父节点及祖先节点内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    


"""
# 创建一个BeautifulSoup对象,获取页面正文
soup = BeautifulSoup(html_doc, features="lxml")
print(soup.title.parent)                # 打印title节点的父节点内容
print(soup.title.parents)               # 打印title节点的父节点及以上内容的generator对象
for i in soup.title.parents:           # 循环遍历generator对象中的所有父节点及以上内容
    print(i.name)                       # 打印父节点及祖先节点名称

直接获取title节点的父节点内容


关联获取演示

父节点及以上内容的generator对象

循环遍历父节点及祖先节点的名称

head
html
[document]

说 明

在上面的运行结果可以看出,parents属性所获取父节点的顺序为head,html,最后的[document]表示文档对象,既是整个HTML文档,也是BeautifulSoup对象。

4、获取兄弟节点

兄弟节点也就是同级节点,表示在同一级节点内的所有子节点间的关系。如,在一段HTML代码中获取第一个p节点的下一个div兄弟节点时可以使用next_sibling属性,如果想获取当前div节点的上一个兄弟节点p时可以使用previous_sibling属性。通过这两个属性获取兄弟节点时,如果两个节点之间含有换行符(\n)、空字符或者是其他文本内容时,将返回这些文本节点。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 8:16 PM
# 文件      :获取兄弟节点.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    


零基础学Python

第一个p节点下文本 Python从入门到项目实践
Python项目开发案例集锦

Python编程锦囊
""" # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print(soup.p.next_sibling)               # 打印第一个p节点下一个兄弟节点(文本节点内容) print(list(soup.p.next_sibling))         # 以列表形式打印文本节点中的所有元素 div = soup.p.next_sibling.next_sibling  # 获取p节点同级的第一个div节点 print(div)                               # 打印第一个div节点内容 print(div.previous_sibling)              # 打印第一个div节点上一个兄弟节点(文本节点内容)

程序运行结果,第一个p节点的下一个兄弟节点:

第一个p节点下文本

文本节点中的所有元素

['\n', '第', '一', '个', 'p', '节', '点', '下', '文', '本', '\n']

第一个div节点内容

Python从入门到项目实践

第一个div节点上一个兄弟节点

第一个p节点下文本

如果想获取当前节点后面的所有兄弟节点时,可以使用next_siblings属性。如果想获取当前节点前面的所有兄弟节点时可以使用previsou_siblings属性。通过这两个属性所获取的节点都将以generator(可迭代对象)的形式返回。在获取节点的内容时,同样可以直接将其转换为list类型或者通过for循环遍历的方式进行获取。这里以转换list类型为例,代码如下:

print('获取p节点后面的所有兄弟节点如下:\n', list(soup.p.next_siblings))
print('获取p节点前面的所有兄弟节点如下:\n', list(soup.p.previous_siblings))

程序运行结果如下:

获取p节点后面的所有兄弟节点如下:
 ['\n第一个p节点下文本\n', Python从入门到项目实践, '\n', Python项目开发案例集锦

, '\n', Python编程锦囊, '\n'] 获取p节点前面的所有兄弟节点如下:  ['\n']

使用find()方法获取内容

在HTML代码中获取比较复杂的内容时,可以使用find_all()方法与find()方法。调用这些方法,然后传入指定的参数即可灵活的获取节点中的内容。

find_all()——获取所有符合条件的内容

Beautiful Soup提供了一个find_all()方法,该方法可以获取所有符合条件的内容。语法格式如下:

find_all(name = None, attrs = {}, recursive = True, text = None, limit = None, **kwargs)

1. name参数

name参数用来指定节点名称,指定该参数以后将返回一个可迭代对象,所有符合条件的内容均为对象中的一个元素。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 10:06 PM
# 文件      :find_all(name)通过节点名称获取内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库

# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    



零基础学Python

Python从入门到项目实践

Python项目开发案例集锦

Python编程锦囊 """ # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print(soup.find_all(name='p'))           # 打印名称为p的所有节点内容 print(type(soup.find_all(name='p')))     # 打印数据类型

程序运行结果如下:

[零基础学Python

Python从入门到项目实践

Python项目开发案例集锦

]

说 明

bs4.element.ResultSet类型的数据与Python中的列表类似,如果想获取可迭代对象中的某条件数据可以使用切片的方式进行,如获取所有P节点中的第一个可以参考如下代码:

print(soup.find_all(name='p')[0])   # 打印所有p节点中的第一个元素

因为bs4.element.ResultSet数据中的每一个元素都是bs4.element.Tag类型,所以可以直接对某一个元素进行嵌套获取。代码如下:

print(type(soup.find_all(name='p')[0]))   # 打印数据类型
print(soup.find_all(name = 'p')[0].find_all(name = 'a'))  # 打印第一个p节点内的子节点a

程序运行结果如下:


[零基础学Python]

2. attrs参数

attrs参数表示通过指定属性进行数据的获取工作,在填写attrs参数时,默认情况下需要填写字典类型的参数值,但也可以通过赋值的方式填写参数。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 10:48 PM
# 文件      :find_all(attrs)通过指定属性获取内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库
import re                      # 导入正则表达式模块
# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    


零基础学Python

Python从入门到项目实践

Python项目开发案例集锦

Python编程锦囊 """ # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print('指定字符串所获取的内容如下:') print(soup.find_all(text='零基础学Python'))         # 打印指定字符串所获取的内容 print('指定正则表达式对象所获取的内容如下:') print(soup.find_all(text=re.compile('Python')))    # 打印指定正则表达式对象所获取的内容

程序运行结果如下:

字典参数结果如下:
[零基础学Python

] 赋值参数结果如下: [零基础学Python

Python从入门到项目实践

] [Python项目开发案例集锦

]

3. text参数

指定text参数可以获取节点中的文本,该参数可以指定字符串或者正则表达式对象。代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 10:48 PM
# 文件      :find_all(attrs)通过指定属性获取内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库
import re                      # 导入正则表达式模块
# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    


零基础学Python

Python从入门到项目实践

Python项目开发案例集锦

Python编程锦囊 """ # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print('指定字符串所获取的内容如下:') print(soup.find_all(text='零基础学Python'))         # 打印指定字符串所获取的内容 print('指定正则表达式对象所获取的内容如下:') print(soup.find_all(text=re.compile('Python')))    # 打印指定正则表达式对象所获取的内容

程序运行结果如下:

指定字符串所获取的内容如下:
['零基础学Python']
指定正则表达式对象所获取的内容如下:
['零基础学Python', 'Python从入门到项目实践', 'Python项目开发案例集锦', 'Python编程锦囊']

find()——获取第一个匹配的节点内容

find_all()方法可以获取所有符合条件的节点内容,而find()方法只能获取第一个匹配的节点内容。

代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/6/22 11:14 PM
# 文件      :find()方法获取第一个匹配的节点内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库
import re                      # 导入正则表达式模块
# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    


零基础学Python

Python从入门到项目实践

Python项目开发案例集锦

Python编程锦囊 """ # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print(soup.find(name='p'))                  # 打印第一个name为p的节点内容 print(soup.find(class_='p-3'))              # 打印第一个class为p-3的节点内容 print(soup.find(attrs={'value':'4'}))       # 打印第一个value为4的节点内容 print(soup.find(text=re.compile('Python'))) # 打印第一个文本中包含Python的文本信息

程序运行结果如下:

零基础学Python

Python项目开发案例集锦

Python编程锦囊 零基础学Python

其他方法

除了find_all()和find()方法可以实现按照指定条件获取节点内容以外,Beautiful Soup模块还提供了多个其他方法,这些方法的使用方式与find_all()和find()方法相同,只是查询的范围不同,各个方法的具体说明如下:

根据条件获取节点内容的其他方法及描述

方 法 名 称 描  述
find_parent() 获取父节点内容
find_parents() 获取所有祖先节点内容
find_next_sibling() 获取后面第一个兄弟节点内容
find_previous_siblings() 获取前面第一个兄弟节点内容
find_next_siblings() 获取后面所有兄弟节点内容
find_previous_siblings() 获取前面所有兄弟节点内容
find_next() 获取当前节点的下一个符合条件的节点内容
find_all_next() 获取当前节点的下一个所有符合条件的节点内容
find_previous() 获取第一个符合条件的节点内容
find_all_previous() 获取所有符合条件的节点内容

CSS选择器

Beautiful Soup模块还提供了CSS选择器来获取节点内容,如果是Tag或者是Beautiful Soup对象都可以直接调用select()方法,然后填写指定参数即可通过CSS选择器获取到节点中的内容。

说 明

CSS选择器参考手册

https://www.w3school.com.cn/cssref/css_selectors.asp

在使用CSS选择器获取节点内容时,首先需要调用select()方法,然后为其指定字符串类型的CSS选择器。常见的CSS选择器如下:

§ 直接填写字符串类型的节点名称

§ .class:表示指定class属性值

§ #id:表示指定id属性的值

使用CSS选择器调用select()方法获取节点内容

示例代码如下:

#_*_coding:utf-8_*_
# 作者      :liuxiaowei
# 创建时间   :2/7/22 6:12 AM
# 文件      :使用CSS选择器获取节点内容.py
# IDE      :PyCharm

from bs4 import BeautifulSoup  # 导入BeautifulSoup库
# 创建模拟HTML代码的字符串
html_doc = """


    关联获取演示
    


     
        零基础学Python

        Python从入门到项目实践

        Python项目开发案例集锦

        Python编程锦囊

                  零基础学Java(全彩版)

        零基础学Android(全彩版)

        零基础学C语言(全彩版)

         """ # 创建一个BeautifulSoup对象,获取页面正文 soup = BeautifulSoup(html_doc, features="lxml") print('所有p节点内容如下:') print(soup.select('p'))                # 打印所有p节点内容 print('所有p节点中的第二个p节点内容如下:') print(soup.select('p')[1])             # 打印所有p节点中的第二个p节点 print('逐层获取的title节点如下:') print(soup.select('html head title'))  # 打印逐层获取的title节点 print('类名为test_2所对应的节点如下:') print(soup.select('.test_2'))          # 打印类名为test_2所对应的节点 print('id值为class_1所对应的节点如下:') print(soup.select('#class_1'))         # 打印id值为class_1所对应的节点

程序运行结果如下:

所有p节点内容如下:
[零基础学Python

Python从入门到项目实践

Python项目开发案例集锦

Python编程锦囊

零基础学Java(全彩版)

零基础学Android(全彩版)

零基础学C语言(全彩版)

] 所有p节点中的第二个p节点内容如下: Python从入门到项目实践

逐层获取的title节点如下: [关联获取演示] 类名为test_2所对应的节点如下: [ 零基础学Java(全彩版)

零基础学Android(全彩版)

零基础学C语言(全彩版)

] id值为class_1所对应的节点如下: [ 零基础学Python

Python从入门到项目实践

Python项目开发案例集锦

Python编程锦囊

]

select()方法除了以上的基本使用方法以外,还可以实现嵌套获取获取属性值以及获取文本等。

根据条件获取节点内容的其他方法及描述

获取节点内容的方式 描   述
soup.select('div[class="test_1"]')[0].
select('p')[0]
嵌套获取class名为test_1对应的div中所有p节点中的第一个
soup.select('p')[0]['value']
soup.select('p')[0].attrs['value']
获取所有p节点中第一个节点内value属性对应的值(两种方式)
soup.select('p')[0].get_text()
soup.select('p')[0].string
获取所有p节点中第一个节点内的文本(两种方式)
soup.select('p'([1:]) 获取所有p节点中第二个以后的p节点
soup.select('.p-1, .p-5') 获取class名为p-1与p-5对应的节点
soup.select('a[href]') 获取存在href属性的所有a节点
soup.select('p[value = "1"]') 获取所有属性值为value = "1"的p节点

说 明

Beautiful Soup 模块还提供了一个select_one()方法,用于获取所有符合条件节点的第一个节点,例如soup.select_one('a')将获取所有a节点中的第一个a节点内容。

总 结

爬虫必备Beautiful Soup包使用详解_第1张图片

你可能感兴趣的:(字符串,python,java,编程语言,js)