GitHub@ orca-j35,所有笔记均托管于 python_notes 仓库。
欢迎任何形式的转载,但请务必注明出处。
概述
⚠官方文档中混杂了 Py2 和 Py3 的术语和代码,本笔记针对 Py3 梳理了文档中的内容,在了解 BeautifulSoup 的过程中,建议将本笔记与官方文档配合食用。
Beautiful Soup 是一个用来从 HTML 或 XML 文件中提取数据的 Python 库。在使用 BeautifulSoup 时,我们选择自己喜欢的解析器,从而以自己熟悉的方式来导航、查找和修改解析树。
相关资源:
- Home: https://www.crummy.com/softwa...
- PyPI: https://pypi.org/project/beau...
- Docs-EN: https://www.crummy.com/softwa...
- Docs-CN: https://www.crummy.com/softwa...
安装:
pip install beautifulsoup4
如果遇到安装问题,可以参考:
如果能顺利执行以下代码,则说明安装成功:
from bs4 import BeautifulSoup
soup = BeautifulSoup('Hello
', 'lxml')
print(soup.p.string) #> Hello
⚠在安装库和导入库时使用的名称不一定相同,例如: 在安装 BeautifulSoup4 时,使用的名称是 beautifulsoup4
;在导入时,使用的名称是 bs4
(路径为 ~\Python\Lib\site-packages\bs4
)。
如果在使用过程中遇到本文未涵盖的问题,请参考: https://www.crummy.com/softwa...
Three sisters
下面这段名为 "Three sisters" 文档是本笔记的 HTML 示例文档(官方文档中也用的这段代码):
html_doc = """
The Dormouse's story
The Dormouse's story
Once upon a time there were three little sisters; and their names were
Elsie,
Lacie and
Tillie;
and they lived at the bottom of a well.
...
"""
这段 HTML 文档存在 "tag soup",HTML 解析器会自动修复 "tag soup"
提高性能
BeautifulSoup 的速度永远会低于其使用的解析器的速度。如果对速度有严格要求,应直接使用 lxml 库来解析。
对 BeautifulSoup 而言,lxml 解析器的速度比 html.parser 或 html5lib 更快。
可以通过安装 cchardet 库来显著提升检测编码方案的速度。
仅解析部分文档并不会节省大量的解析时间,但是可以节省大量内存,并有效提升检索文档的速度。
BeautifulSoup()
BeautifulSoup(self, markup="", features=None, builder=None, parse_only=None, from_encoding=None, exclude_encodings=None, **kwargs)
构造器 BeautifulSoup()
中各参数的含义如下:
-
markup
- 要解析的标签(markup),可以是字符串或 file-like 对象。from bs4 import BeautifulSoup with open("index.html") as fp: soup = BeautifulSoup(fp) soup = BeautifulSoup("data")
-
features
- 用来设置解析器,可使用解析器的名称("lxml", "lxml-xml", "html.parser", "html5lib"),或使用标签的类型("html", "html5", "xml")。建议明确给出需要使用的解析器,以便 BeautifulSoup 在不同的平台和虚拟环境中提供相同的结果。默认情况下,BeautifulSoup 会以 HTML 格式解析文档,如果要以 XML 格式解析文档,则需设置
features='xml'
。目前支持解析 XML 的解析器仅有 lxml。如果没有手动设置解析器,BeautifulSoup 将会在已安装的解析器中选一个最好用的 HTML 解析器,解析器的优先级依次是 lxml’s HTML parser > html5lib's parser > Python’s html.parser。
如果已手动设置某解析器,但是并为安装该解析器,BeautifulSoup 将忽略该设置并按照优先级选择一个解析器。
-
builder
- 不需要使用的参数(A specific TreeBuilder to use instead of looking one up based onfeatures
)。 -
parse_only
- 以 SoupStrainer 对象作为实参值。在解析文档的过程中只会考虑与 SoupStrainer 匹配的部分。当我们只需要解析某部分文档时非常有用,比如由于文档太大而无法放全部放入内存时,便可以考虑只解析某部分文档。 -
from_encoding
- 一个字符串,表示被解析的文档的编码。如果 BeautifulSoup 在猜测文档编码时出现错误,请传递此参数。 -
exclude_encodings
- 一个字符串列表,表示已知的错误编码。如果你不知道文档编码,但你知道 BeautifulSoup 的猜测出现错误时,请传递此参数。 -
**kwargs
- 为了保证向后兼容,构造可接受 BeautifulSoup3 中使用的某些关键字参数,但这些关键字参数在 BeautifulSoup4 中并不会执行任何操作。
解析器
Beautiful Soup 支持 Python 标准库中的 HTML 解析器,同时还支持一些第三方的解析器(如 lxml):
- Python’s html.parser -
BeautifulSoup(markup,"html.parser")
- lxml’s HTML parser -
BeautifulSoup(markup, "lxml")
- lxml’s XML parser -
BeautifulSoup(markup, "lxml-xml")
或BeautifulSoup(markup, "xml")
- html5lib -
BeautifulSoup(markup, "html5lib")
默认情况下,BeautifulSoup 会以 HTML 格式解析文档,如果要以 XML 格式解析文档,则需设置 features='xml'
。目前支持解析 XML 的解析器仅有 lxml。
如果没有手动设置解析器,BeautifulSoup 将会在已安装的解析器中选一个最好用的 HTML 解析器,解析器的优先级依次是 lxml’s HTML parser > html5lib's parser > Python’s html.parser。
如果已手动设置某解析器,但是并为安装该解析器,BeautifulSoup 将忽略该设置并按照优先级选择一个解析器。
第三方解析器的安装方法和优缺点对比: Installing a parser
建议使用 lxml 解析器来提高解析速度。早于 2.7.3 和 3.2.2 的 Python 版本,必须使用 lxml 和 html5lib 解析器,因为这些版本的内置 HTML 解析器不够稳定。
Note: 如果试图解析无效的 HTML/XML 文档,不同解析器可能会给出不同的结果。
有关解析器间的具体差异,详见: Specifying the parser to use
解析 XML 文档
参考: https://www.crummy.com/softwa...
默认情况下,BeautifulSoup 会以 HTML 格式解析文档,如果要以 XML 格式解析文档,则需设置 features='xml'
。目前支持解析 XML 的解析器仅有 lxml。
编码
参考: https://www.crummy.com/softwa...
HTML 或 XML 文档可能会采用不同的编码方案(如 ASCII 或 UTF-8),当你将文档加载到 BeautifulSoup 后,便会自动转换为 Unicode。
markup = "Sacr\xc3\xa9 bleu!
"
soup = BeautifulSoup(markup, 'lxml')
print(soup.h1)
#> Sacré bleu!
print(soup.h1.string)
#> u'Sacr\xe9 bleu!'
BeautifulSoup 会使用一个叫做 Unicode, Dammit 的子库来检测文档编码并将其转换为 Unicode。 BeautifulSoup
对象的 .original_encoding
属性记录了自动识别编码的结果:
print(soup.original_encoding)
#> 'utf-8'
在大多数时候,Unicode, Dammit 能够猜测出正确的编码方案,但是偶尔也会犯错。有时候即便猜测正确,但也需要先逐字节遍历文档后才能给出答案,这样非常耗时。如果你知道文档的编码方案,则可以通过 from_encoding
参数来设置编码方案,从而避免错误和延迟。
Here’s a document written in ISO-8859-8. The document is so short that Unicode, Dammit can’t get a lock on it, and misidentifies it as ISO-8859-7:
markup = b"
\xed\xe5\xec\xf9
" soup = BeautifulSoup(markup) soup.h1νεμω
soup.original_encoding 'ISO-8859-7'We can fix this by passing in the correct
from_encoding
:soup = BeautifulSoup(markup, from_encoding="iso-8859-8") soup.h1
םולש
soup.original_encoding 'iso8859-8'
如果你并不知道编码方案,但是你知道 Unicode, Dammit 给出了错误答案,则可以使用 exclude_encodings
参数来排除某些编码方案:
soup = BeautifulSoup(markup, exclude_encodings=["ISO-8859-7"]) soup.h1
םולש
soup.original_encoding 'WINDOWS-1255'Windows-1255 isn’t 100% correct, but that encoding is a compatible superset of ISO-8859-8, so it’s close enough. (
exclude_encodings
is a new feature in Beautiful Soup 4.4.0.)
如果需要了解更多信息,请阅读: https://www.crummy.com/softwa...
仅解析部分文档
参考: https://www.crummy.com/softwa...
对于仅需要解析 标签情况而言,先解析整个文档然后再查找
标签标准过程会浪费大量的时间和内存。如果一开始就忽略掉与
标签无关的部分,则会有效提升查询速度。
对于仅需要解析部分文档的情况而言,可使用 SoupStrainer
类筛选出要保留的标签。
⚠仅解析部分文档并不会节省大量的解析时间,但是可以节省大量内存,并有效提升检索文档的速度。
⚠html5lib 解析器不支持该功能,原因如下:
If you use html5lib, the whole document will be parsed, no matter what. This is because html5lib constantly rearranges the parse tree as it works, and if some part of the document didn’t actually make it into the parse tree, it’ll crash. To avoid confusion, in the examples below I’ll be forcing Beautiful Soup to use Python’s built-in parser.
SoupStrainer
SoupStrainer()
构造器的参数与搜索解析树的方法相同: name, attrs, text, **kwargs,不可将 text 写作 string,对 SoupStrainer()
而言 text 和 string 不能等效使用。
示例 - SoupStrainer
对象的使用方法:
from bs4 import SoupStrainer
html_doc = """
The Dormouse's story
The Dormouse's story
Once upon a time there were three little sisters; and their names were
Elsie,
Lacie and
Tillie;
and they lived at the bottom of a well.
...
"""
only_a_tags = SoupStrainer("a")
soup = BeautifulSoup(html_doc, "html.parser", parse_only=only_a_tags)
print([f'{type(i)}::{i.name}' for i in soup])
#> ["::a", "::a", "::a"]
only_tags_with_id_link2 = SoupStrainer(id="link2")
soup = BeautifulSoup(
html_doc, "html.parser", parse_only=only_tags_with_id_link2)
print([f'{type(i)}::{i}' for i in soup])
#> ['::Lacie']
def is_short_string(text: str):
return len(text) < 10
only_short_strings = SoupStrainer(text=is_short_string)
soup = BeautifulSoup(html_doc, "html.parser", parse_only=only_short_strings)
print([repr(i) for i in soup])
#> ["'\\n'", "'\\n'", "'\\n'", "'\\n'", "'Elsie'", "',\\n'", "'Lacie'", "' and\\n'", "'Tillie'", "'\\n'", "'...'", "'\\n'"]
SoupStrainer
可用作搜索解析树的方法的参数,这可能并不常见,但还是提一下:
def is_short_string(text: str):
return len(text) < 10
only_short_strings = SoupStrainer(text=is_short_string)
soup = BeautifulSoup(
html_doc,
"html.parser",
)
print([repr(i) for i in soup.find_all(only_short_strings)])
#> "'\\n'", "'\\n'", "'\\n'", "'\\n'", "'Elsie'", "',\\n'", "'Lacie'", "' and\\n'", "'Tillie'", "'\\n'", "'...'", "'\\n'"]
对象的种类
参考: Kinds of objects
BeautifulSoup 会将复杂的 HTML 文档转换为复杂的 Python 对象树,树中的每个节点都是一个 Python 对象,共有四种需要处理对象: Tag
, NavigableString
, BeautifulSoup
, Comment
Tag
Tag
对象对应于原始文档中的 XML 或 HTML 标记(tag)。
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
tag = soup.b
print(type(tag))
#
Tag
对象拥有很多属性和方法,在 Navigating the tree 和 Searching the tree 中有详细解释。本小节仅介绍 Tag
对象两个最重要的特性。
name
每个 Tag
对象都有自己的名字,通过 .name
字段访问:
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
tag = soup.b
print(tag.name)
#> b
如果修改了 Tag
对象的 .name
字段,则会影响 BeautifulSoup
对象生成的 HTML 文档:
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
tag = soup.b
tag.name = "blockquote"
print(tag)
#> Extremely bold
print(soup)
#> Extremely bold
Attributes
一个 HTML 标签可包含任意数量的属性(attributes)。例如,标签 包含名为
"id"
的属性,其值为 "boldest"
。
可将 Tag
对象视作存放标签属性的字典,键值对由属性名和属性值构成,使用方法也与字典相同。另外,还可通过 .attrs
字段来获取存放标签属性的字典。
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
tag = soup.b
print(tag['id']) #> boldest
print(tag.get('id')) #> boldest
print(tag.attrs) #> {'id': 'boldest'}
Tag
对象支持对标签的属性进行添加、删除、修改:
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
tag = soup.b
tag['id'] = 'verybold'
tag['another-attribute'] = 1
print(tag)
#> Extremely bold
del tag['id']
del tag['another-attribute']
print(tag)
#> Extremely bold
print(tag.get('id', "Don't have"))
#> Don't have
print(tag['id']
#> KeyError: 'id'
.has_attr()
方法用于判断 Tag
对象是否包含某个属性:
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
print(soup.b.has_attr('id'))
#> True
print(soup.b.has_attr('class'))
#> False
Multi-valued attributes
HTML 4 中某些属性可以具备多个值,HTML 5 在 HTML 4 的基础上删除了一些多值属性,但又引入了一些多值属性。最常见的多值属性是 class
(HTML 标签可持有多个 CSS 类),其它一些多值属性的例子: rel
, rev
, accept-charset
, headers
, accesskey
。
BeautifulSoup 将多值属性的值表示为一个列表:
from bs4 import BeautifulSoup
css_soup = BeautifulSoup('', 'lxml')
print(css_soup.p['class'])
#> ["body"]
css_soup = BeautifulSoup('', 'lxml')
print(css_soup.p['class'])
#> ["body", "strikeout"]
如果某个属性看起来好像有多个值,但在任何版本的 HTML 定义中都没有被定义为多值属性,那么 BeautifulSoup 会将这个属性作为字符组返回:
id_soup = BeautifulSoup('', 'lxml')
print(id_soup.p['id'])
#> my id
将 Tag
转换成字符串时,会对多个属性值进行合并:
print(rel_soup.a['rel'])
# ['index']
rel_soup.a['rel'] = ['index', 'contents']
print(rel_soup.p)
# Back to the homepage
`.get_attribute_list()
方法用于获取标签属性列表,无论属性是否是多值属性都会返回一个列表:
id_soup = BeautifulSoup('', 'lxml')
print(id_soup.p['class'])
#> ['body', 'strikeout']
print(id_soup.p.get_attribute_list('class'))
#> ['body', 'strikeout']
print(id_soup.p['id'])
#> my id
print(id_soup.p.get_attribute_list('id'))
#> ['my id']
如果文档以 XML 格式进行解析,则不会包含多值属性:
xml_soup = BeautifulSoup('', 'xml')
print(xml_soup.p['class'])
#> body strikeout
NavigableString
bs4.element.NavigableString
NavigableString
继承自 str
类和 PageElement
类,不能对 NavigableString
对象所含字符串进行编辑,但是可以使用 replace_with()
方法进行替换:
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
tag = soup.b
tag.string.replace_with("No longer bold")
print(tag)
#> No longer bold
NavigableString
支持 Navigating the tree 和 Searching the tree 中描述大部分功能,但并非全部功能。由于 NavigableString
对象只能包含字符串,不能包含其它内容(Tag
对象可以包含字符串或子 tag),所以 NavigableString
不支持 .contents
或 .string
字段,也不支持 find()
方法。在 NavigableString
上调用 name
字段时,会返回 None
如果想要在 BeautifulSoup
外部使用 NavigableString
中的字符串,你应该先调用 str()
把 NavigableString
对象转换为普通的字符串对象。如果不将其转换为普通字符串的话,你将始终持有对整个 BeautifulSoup
解析树的引用,这会浪费大量内存。
可通过 .string
对象获取 NavigableString
对象,详见 .string 小节
BeautifulSoup
BeautifulSoup
对象表示整个文档,在大部分时候,你可以将其视为 Tag
对象。BeautifulSoup
对象支持 Navigating the tree 和 Searching the tree 中描述大部分功。
由于并没有与 BeautifulSoup
对象对应的 HTML/XML tag,因此 BeautifulSoup
对象的 name
字段为 '[document]'
,并且不包含 HTML attributes。
from bs4 import BeautifulSoup
soup = BeautifulSoup('Extremely bold', 'lxml')
print(type(soup))
#>
print(soup.name)
#> [document]
注释及特殊字符串
Tag
, NavigableString
, BeautifulSoup
几乎涵盖了你在 HTML 或 XML 文件中看到的所有内容,但是仍有一些没有覆盖到的内容,比如注释(comment):
from bs4 import BeautifulSoup
markup = ""
soup = BeautifulSoup(markup, 'lxml')
comment = soup.b.string
print(type(comment))
#>
print(comment)
#> Hey, buddy. Want to buy a used parser?
Comment
类继承自 PreformattedString
,PreformattedString
继承自 NavigableString
。也就是说 Comment
是一种特殊的 NavigableString
类型。
但是当注释出现在HTML文档中时,Comment
对象会使用特殊的格式输出:
from bs4 import BeautifulSoup
markup = ""
soup = BeautifulSoup(markup, 'lxml')
print(soup.b.prettify())
'''Out:
'''
BeautifulSoup 还为 XML 文档中可能会出现的其它内容定义了各种类:
CData
ProcessingInstruction
Declaration
Doctype
与 Comment
类似,这些类都是 NavigableString
的子类,并进行了一些扩展。下面这个示例中,将使用 CDATA block 来替换 Comment
:
from bs4 import BeautifulSoup
from bs4 import CData
markup = ""
soup = BeautifulSoup(markup, 'lxml')
cdata = CData("A CDATA block")
comment = soup.b.string
comment.replace_with(cdata)
print(soup.b.prettify())
'''Out:
'''
对象的是否相等
参考: https://www.crummy.com/softwa...
Beautiful Soup says that two NavigableString
or Tag
objects are equal when they represent the same HTML or XML markup. In this example, the two tags are treated as equal, even though they live in different parts of the object tree, because they both look like “
pizza
”:
markup = "I want pizza and more pizza!
"
soup = BeautifulSoup(markup, 'html.parser')
first_b, second_b = soup.find_all('b')
print first_b == second_b
# True
print first_b.previous_element == second_b.previous_element
# False
If you want to see whether two variables refer to exactly the same object, use is:
print first_b is second_b
# False
拷贝 BeautifulSoup 对象
参考: https://www.crummy.com/softwa...
You can use copy.copy()
to create a copy of any Tag
or NavigableString
:
import copy
p_copy = copy.copy(soup.p)
print p_copy
# I want pizza and more pizza!
The copy is considered equal to the original, since it represents the same markup as the original, but it’s not the same object:
print soup.p == p_copy
# True
print soup.p is p_copy
# False
The only real difference is that the copy is completely detached from the original Beautiful Soup object tree, just as if extract()
had been called on it:
print p_copy.parent
# None
This is because two different Tag
objects can’t occupy the same space at the same time.
输出
扩展阅读: Output encoding
BeautifulSoup 兼容 Py2 和 Py3 ,但 Py2 和 Py3 中的 str
对象并不相同,这会导出输出结果存在差异,在获取输出时需注意区分。
.decode()
该方法会将 BeautifulSoup
对象和 Tag
对象中的内容转换为 Unicode 字符串。
源代码中的注释如下:
def decode(self, indent_level=None,
eventual_encoding=DEFAULT_OUTPUT_ENCODING,
formatter="minimal"):
"""Returns a Unicode representation of this tag and its contents.
:param eventual_encoding: The tag is destined to be
encoded into this encoding. This method is _not_
responsible for performing that encoding. This information
is passed in so that it can be substituted in if the
document contains a tag that mentions the document's
encoding.
"""
对 Py3 而言,decode()
将返回 str
对象(Uncode 字符串):
# in Python3
from bs4 import BeautifulSoup
markup = '连接到example.com'
soup = BeautifulSoup(markup, 'lxml')
print(type(soup.decode()))
#>
print(soup.decode())
#> 连接到example.com
对 Py2 而言,decode()
将返回 Unicode
对象(Uncode 字符串):
# in Python2
>>> markup = u'连接到example.com'
>>> soup = BeautifulSoup(markup, 'lxml')
>>> print(type(soup.decode()))
>>> print(soup.decode())
连接到example.com
.encode()
该方法会先将数据结构转换为 Unicode 字符串,再按照指定编码对 Unicode 字符串进行编码,默认采用 UTF-8 编码。源代码如下:
def encode(self, encoding=DEFAULT_OUTPUT_ENCODING,
indent_level=None, formatter="minimal",
errors="xmlcharrefreplace"):
# Turn the data structure into Unicode, then encode the
# Unicode.
u = self.decode(indent_level, encoding, formatter)
return u.encode(encoding, errors)
对 Py3 而言,encode()
将返回以 encoding
编码(默认采用 UTF-8)的 bytes
对象:
# in Python3
from bs4 import BeautifulSoup
markup = '连接到example.com'
soup = BeautifulSoup(markup, 'lxml')
print(type(soup.encode()))
#>
print(soup.encode())
#> b'\xe8\xbf\x9e\xe6\x8e\xa5\xe5\x88\xb0example.com'
对 Py2 而言,encode()
将返回以 encoding
编码(默认采用 UTF-8)的 str
对象(Py2 和 Py3 中的 str
对象并不相同):
# in Python2
>>> markup = u'连接到example.com'
>>> soup = BeautifulSoup(markup, 'lxml')
>>> print(soup.encode())
连接到example.com
>>> soup.encode()
'\xe8\xbf\x9e\xe6\x8e\xa5\xe5\x88\xb0example.com'
>>> type(soup.encode())
.prettify()
参考: https://www.crummy.com/softwa...
prettify(self, encoding=None, formatter="minimal")
当 encoding==None
时,prettify()
会将 BeautifulSoup 解析树转换为格式良好的 Unicode 字符串,在字符串中每个 HTML/XML tag 和 字符串都会独占一行;当 encoding!=None
时,prettify()
会将 BeautifulSoup 解析树编码为格式良好的 bytes
字符串。
prettify()
的源代码如下:
# prettify()的源代码
def prettify(self, encoding=None, formatter="minimal"):
if encoding is None:
return self.decode(True, formatter=formatter)
else:
return self.encode(encoding, True, formatter=formatter)
示例 - in Py3:
# in Python3
from bs4 import BeautifulSoup
markup = 'I linked to example.com'
soup = BeautifulSoup(markup, 'lxml')
print(type(soup.prettify()))
#>
print(soup.prettify())
'''Out:
I linked to
example.com
'''
prettify()
适用于 BeautifulSoup
对象和 Tag
对象:
print(soup.a.prettify())
'''Out:
I linked to
example.com
'''
示例 - in Py2:
# in Python2
from bs4 import BeautifulSoup
markup = u'连接到example.com'
soup = BeautifulSoup(markup, 'lxml')
print(soup.prettify())
'''Out:
I linked to
example.com
'''
formatter 参数
参考: Output formatters
如果传递给 BeautifulSoup()
的文档中包含 HTML 实体(entities),那么在输出文档时,这些 HTML 实体将被转换为 Unicode 字符:
# in Python3
from bs4 import BeautifulSoup
soup = BeautifulSoup("“Dammit!” he said.", 'lxml')
print(soup)
#> “Dammit!” he said.
如果将文档编码为 bytes
对象,encode()
方法会先将 HTML 文档内容转换为 Unicode 字符串(此时 HTML 实体将被转换为 Unicode 字符),然后再将 Unicode 字符串编码为 bytes
对象,默认采用 UTF-8 编码。HTML 实体将以 Unicode 字符的形式编码。
# in Python3
# 注意观察HTML实体的变化
from bs4 import BeautifulSoup
soup = BeautifulSoup("“Dammit!” he said.", 'lxml')
print(soup.encode())
#> b'\xe2\x80\x9cDammit!\xe2\x80\x9d he said.
'
print('“'.encode('utf-8'))
#> b'\xe2\x80\x9c'
默认情况下,在输出的 Unicode 字符串中,为了保证 BeautifulSoup 不会在无意中生成无效的 HTML 或 XML,独立的 &
(ampersand)和尖括号会以 HTML 实体显示:
# 独立的&会显示为& &会保持原样
# 独立的<会显示为< <会保持原样
# 独立的>会显示为> >会保持原样
# in Python3
from bs4 import BeautifulSoup
soup = BeautifulSoup(
"The law firm of Dewey, Cheatem, > > < < & & Howe
",
'lxml')
p = soup.p
print(p)
#> The law firm of Dewey, Cheatem, > > < < & & Howe
soup = BeautifulSoup(
'A link', 'lxml')
print(soup.a)
#> A link
如果需要改变 HTML 实体的呈现方式,便需要向 prettify()
, encode()
, decode()
传递 formatter
参数。formatter
的实参值有 6 种情况,默认为 formatter="minimal"
。另外,__str__()
, __unicode__()
, __repr__()
在输出时只能采用默认行为,不可修改。
minimal
当 formatter="minimal"
时,会按照前面叙述的规则来处理字符串,以确保生成有效的 HTML/XML:
# in Python3
from bs4 import BeautifulSoup
french = "Il a dit <<Sacré bleu!>>
"
soup = BeautifulSoup(french, 'lxml')
print(soup.prettify(formatter="minimal"))
'''Out:
Il a dit <<Sacré bleu!>>
'''
html
当 formatter="html"
时,BeautifulSoup 会尽可能的将 Unicode 字符传唤为 HTML 实体:
# in Python3
from bs4 import BeautifulSoup
french = "Il a dit <<Sacré bleu!>> é
"
soup = BeautifulSoup(french, 'lxml')
print(soup.prettify(formatter="html"))
'''Out:
Il a dit <<Sacré bleu!>> é
'''
# If you pass in ``formatter="html5"``, it's the same as
html5
当 formatter="html5"
时,BeautifulSoup 会省略 HTML 空 tag 的结束斜杠,例如:
# in Python3
from bs4 import BeautifulSoup
soup = BeautifulSoup("
", 'lxml')
print(soup.encode(formatter="html"))
#
print(soup.encode(formatter="html5"))
#
None
当 formatter=None
时,BeautifulSoup 将不会在输出中修改字符串。此时的输出速度最快,但可能会导致 BeautifulSoup 生成无效的 HTML/XML,例如:
# in Python3
from bs4 import BeautifulSoup
french = "Il a dit <<Sacré bleu!>>
"
soup = BeautifulSoup(french, 'lxml')
print(soup.prettify(formatter=None))
'''Out:
Il a dit <>
'''
link_soup = BeautifulSoup('A link')
print(link_soup.a.encode(formatter=None))
# A link
函数
还可以向 formatter
传递一个函数,BeautifulSoup 会为文档中的每个"字符串"和"属性值"调用一次该函数。你可以在这个函数中做任何你想做的事情。下面这个 formatter 函数会将字符串和属性值转换为大写,并不会执行其它操作:
# in Python3
from bs4 import BeautifulSoup
def uppercase(str):
return str.upper()
french = "Il a dit <<Sacré bleu!>>
"
soup = BeautifulSoup(french, 'lxml')
print(soup.prettify(formatter=uppercase))
'''Out:
IL A DIT <>
'''
link_soup = BeautifulSoup(
'A link', 'lxml')
print(link_soup.a.prettify(formatter=uppercase))
'''Out:
A LINK
'''
如果你正在编写 formatter 函数,你应该先了解一下 bs4.dammit
模块中的 EntitySubstitution
类——该类将 BeautifulSoup 中的标准 formatter 实现为类方法:
- 'html' formatter 对应于
EntitySubstitution.substitute_html
- 'minimal' formatter 对应于
EntitySubstitution.substitute_xml
你可以使用上述函数来模拟 formatter=html
或 formatter==minimal
,并添加一些你需要的扩展功能。
下面这个示例会尽可能的将 Unicode 字符传唤为 HTML 实体,并将所有字符串转换为大写:
from bs4 import BeautifulSoup
from bs4.dammit import EntitySubstitution
def uppercase_and_substitute_html_entities(str):
return EntitySubstitution.substitute_html(str.upper())
french = "Il a dit <<Sacré bleu!>> é
"
soup = BeautifulSoup(french, 'lxml')
print(soup.prettify(formatter=uppercase_and_substitute_html_entities))
'''Out:
IL A DIT <<SACRÉ BLEU!>> É
'''
CData 对象
如果创建创建了一个 CData
对象,则该对象内的文本将始终与其显示完全一致,并不会进行格式化操作。
Beautiful Soup will call the formatter method, just in case you’ve written a custom method that counts all the strings in the document or something, but it will ignore the return value:
from bs4.element import CData
soup = BeautifulSoup("")
soup.a.string = CData("one < three")
print(soup.a.prettify(formatter="xml")) # ?"xml"是什么意思?
#
#
#
Non-pretty printing
如果只想得到结果字符串,并且不在意输出格式,则可以在 BeautifulSoup
对象和 Tag
对象上调用以下方法:
-
__unicode__()
- 对应内置函数unicode()
,适用于 Py2 -
__str__()
- 对应内置函数str()
,由于 Py2 中的str
对象不是 Unicode 字符串,所以str()
在 Py2 和 Py3 中的输出并不相同 -
__repr__()
- 对应于内置函数repr()
,由于 Py2 中的str
对象不是 Unicode 字符串,所以repr()
在 Py2 和 Py3 中的输出并不相同
这三个方法的源代码如下:
def __repr__(self, encoding="unicode-escape"):
"""Renders this tag as a string."""
if PY3K:
# "The return value must be a string object", i.e. Unicode
return self.decode()
else:
# "The return value must be a string object", i.e. a bytestring.
# By convention, the return value of __repr__ should also be
# an ASCII string.
return self.encode(encoding)
def __unicode__(self):
return self.decode()
def __str__(self):
if PY3K:
return self.decode()
else:
return self.encode()
if PY3K:
__str__ = __repr__ = __unicode__
对 Py3 而言,上述三个方法完全等效,均返回 str
对象(Unicode 字符串):
# in Python3
markup = 'I linked to example.com'
soup = BeautifulSoup(markup, 'lxml')
print(soup) # 调用__str__方法
#> I linked to example.com
对 Py2 而言,str()
将返回以 UTF-8 编码的 str
对象(如果需要了解与编码相关的内容,可以参考 Encodings )
# in Python2
>>> markup = u'I linked to 示例example.com'
>>> soup = BeautifulSoup(markup, 'lxml')
>>> str(soup)
'I linked to \xe7\xa4\xba\xe4\xbe\x8bexample.com'
对 Py2 而言,repr()
将返回以 unicode-escape 编码(详见 Text Encodings)的 str
对象:
# in Python2
>>> markup = u'I linked to 示例example.com'
>>> soup = BeautifulSoup(markup, 'lxml')
>>> repr(soup) # 以ASCII编码,并将Unicode字面值表示为quote形式
'I linked to \\u793a\\u4f8bexample.com'
.get_text()
get_text(self, separator="", strip=False, types=(NavigableString, CData))
如果只需要获取文档或 tag 的文本部分,则可以使用 get_text()
方法,源代码如下:
def get_text(self, separator="", strip=False,
types=(NavigableString, CData)):
"""
Get all child strings, concatenated using the given separator.
"""
return separator.join([s for s in self._all_strings(
strip, types=types)])
该方法会将文档或 tag 中的所有文本合并为一个 Unicode 字符串,并返回该字符串:
from bs4 import BeautifulSoup
markup = '\nI linked to example.com\n'
soup = BeautifulSoup(markup, 'lxml')
print(soup.get_text())
print(soup.i.get_text())
输出:
I linked to example.com
example.com
separator 参数用于设置分隔符:
from bs4 import BeautifulSoup
markup = '\nI linked to example.com\n'
soup = BeautifulSoup(markup, 'lxml')
print(repr(soup.get_text('|')))
#> '\nI linked to |example.com|\n'
strip 参数用于设置是否剥离每段文本开头和结尾处的空白符(whitespace):
from bs4 import BeautifulSoup
markup = '\nI linked to example.com\n'
soup = BeautifulSoup(markup, 'lxml')
print(repr(soup.get_text('|', strip=True)))
#> 'I linked to|example.com'
如果需要自己处理文本,则可以使用 .stripped_strings 生成器,它会为我们逐一提取每段文本:
from bs4 import BeautifulSoup
markup = '\nI linked to example.com\n'
soup = BeautifulSoup(markup, 'lxml')
print([text for text in soup.stripped_strings])
#> ['I linked to', 'example.com']
.text
text
字段的源代码如下:
text = property(get_text)