活动地址:CSDN21天学习挑战赛
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航、查找、修改文档的方式。Beautiful Soup会帮你节省数小时甚至数天的工作时间。
BeautifulSoup4将网页转换为一颗DOM树输入对应的pip命令:pip install beautifulsoup4
form bs4 import BeautifulSoup
BeautifulSoup在解析时实际上依赖解析器,它除了支持Python标准库中的HTML解析器外,还支持一些第三方解析器(比如lxml)。最常使用的解析器是lxml HTML解析器,其次是html5lib。
解析器 | 使用方法 | 优势 | 劣势 |
---|---|---|---|
Python标准库 | BeautifulSoup(html,’html.parser’) | Python的内置标准库、执行速度适中、文档容错能力强 | Python 2.7.3及Python3.2.2之前的版本文档容错能力差 |
lxml HTML解析库 | BeautifulSoup(html,’lxml’) | 速度快、文档容错能力强 | 需要安装C语言库 |
lxml XML解析库 | BeautifulSoup(html,‘xml') | 速度快、唯一支持XML的解析器 | 需要安装C语言库 |
htm5lib解析库 | BeautifulSoup(html,’htm5llib’) | 最好的容错性、以浏览器的方式解析文档、生成HTMLS格式的文档 | 速度慢、不依赖外部扩展 |
5.1 基础操作
from bs4 import BeautifulSoup
html = '''
Hello
- Foo
- Bar
- Jay
- Foo
百度官网
- Bar
'''
# 创建对象
soup = BeautifulSoup(html, 'lxml')
from bs4 import BeautifulSoup
soup = BeautifulSoup(open('index.html'),'lxml')
from bs4 import BeautifulSoup
html = '''
Hello
- Foo
- Bar
- Jay
- Foo
百度官网
- Bar
'''
# 创建对象
soup = BeautifulSoup(html, 'lxml')
# 缩进格式
print(soup.prettify())
# 获取title标签的所有内容
print(soup.title)
# 获取title标签的名称
print(soup.title.name)
# 获取title标签的文本内容
print(soup.title.string)
# 获取head标签的所有内容
print(soup.head)
# 获取第一个div标签中的所有内容
print(soup.div)
# 获取第一个div标签的id的值
print(soup.div["id"])
# 获取第一个a标签中的所有内容
print(soup.a)
# 获取所有的a标签中的所有内容
print(soup.find_all("a"))
# 获取id="u1"
print(soup.find(id="u1"))
# 获取所有的a标签,并遍历打印a标签中的href的值
for item in soup.find_all("a"):
print(item.get("href"))
# 获取所有的a标签,并遍历打印a标签的文本值
for item in soup.find_all("a"):
print(item.get_text())
5.2 对象种类
Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种: Tag、NavigableString、BeautifulSoup、Comment。
# 1.Tag通俗点讲就是HTML中的一个个标签
soup = BeautifulSoup('Extremely bold','lxml')
tag = soup.b
print(tag)
print(type(tag))
# 输出结果
Extremely bold
# 2.name属性
print(tag.name)
# 输出结果:b
# 如果改变了tag的name,那将影响所有通过当前Beautiful Soup对象生成的HTML文档:
tag.name = "b1"
print(tag)
# 输出结果:Extremely bold
# 3.Attributes属性
# 取clas属性
print(tag['class'])
# 直接”点”取属性, 比如: .attrs :
print(tag.attrs)
# 4.tag 的属性可以被添加、修改和删除
# 添加 id 属性
tag['id'] = 1
# 修改 class 属性
tag['class'] = 'tl1'
# 删除 class 属性
del tag['class']
print(soup.b.string)
print(type(soup.b.string))
print(type(soup.name))
#
print(soup.name)
# [document]
print(soup.attrs)
# 文档本身的属性为空
print(soup.b)
print(soup.b.string)
print(type(soup.b.string))
5.3 搜索文档树
find_all(name, attrs, recursive, text, **kwargs)
# 匹配字符串:查找与字符串完整匹配的内容,用于查找文档中所有的标签
a_list = soup.find_all("a")
print(a_list)
# 匹配正则表达式:如果传入正则表达式作为参数,Beautiful Soup会通过正则表达式的 match() 来匹配内容
# 返回所有表示和标签
for tag in soup.find_all(re.compile("^b")):
print(tag.name)
# 匹配列表:如果传入列表参数,Beautiful Soup会将与列表中任一元素匹配的内容返回
# 返回所有所有
soup.find_all(id='link2')
# 匹配字符串
soup.find_all(text="a")
# 匹配正则
soup.find_all(text=re.compile("^b"))
# 匹配列表
soup.find_all(text=["p", "a"])
5.4 css选择器
我们在使用BeautifulSoup解析库时,经常会结合CSS选择器来提取数据。
from bs4 import BeautifulSoup
html = '''
Hello
- Foo
- Bar
- Jay
- Foo
百度官网
- Bar
'''
# 创建对象
soup = BeautifulSoup(html, 'lxml')
# 1. 根据标签名查找:查找li标签
print(soup.select("li"))
# 输出结果
[Foo , Bar , Jay , Foo , Bar ]
print(soup.select(".panel_body"))
# 输出结果
- Foo
- Bar
print(soup.select("#list-1"))
# 输出结果
[
- Foo
- Bar
- Jay
]
# 比如:input[ name=“username”]这个表达式查找name= "username "的标签,此处注意和xpath语法的区别
print(soup.select('ul[ name="element"]'))
# 输出结果
[
- Foo
- Bar
- Jay
]
暂无
了解到了使用BeautifulSoup4库。
暂无