爬虫入门(五)——BeautifulSoup4

本文参考Beautiful Soup 4.2.0 文档,仅列举部分内容,详细内容见原文档,链接为:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html#id14

1. bs4简介

1.1 基本概念

BeautifulSoup 是⼀个可以从HTML或XML⽂件中提取数据的网页信息提取库(简称bs4),它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式

1.2 源码分析

  • github下载源码
  • 安装:
    pip install lxml(解析器)
    pip install bs4

2.bs4的用法爬虫入门(五)——BeautifulSoup4_第1张图片

2.1 bs4的对象种类

  • tag : 标签
  • NavigableString : 可导航的字符串
  • BeautifulSoup : bs对象
  • Comment : 注释

2.2 bs4的用法

直接上代码理解:

from bs4 import BeautifulSoup

html_doc = """
The Dormouse's story

The Dormouse's story

Once upon a time there were three little sisters; and their names were Elsie, Lacie and Tillie; and they lived at the bottom of a well.

...

"""
soup=BeautifulSoup(html_doc,'lxml') print(soup.prettify()) #美化代码格式,使代码能按照标准的缩进格式的结构输出 print(soup.title) #获取标签:<title>The Dormouse's story print(soup.title.name) #获取标签名称:title print(soup.title.string) #获取标签中的文字:The Dormouse's story</span> <span class="token keyword">print</span><span class="token punctuation">(</span>soup<span class="token punctuation">.</span>title<span class="token punctuation">.</span>parent<span class="token punctuation">)</span> <span class="token comment">#获取<title>标签的父标签:<head><title>The Dormouse's story print(soup.title.parent.name) #获取父标签名称:head print(soup.p['class']) #获取

标签中class属性值:['title'] print(soup.find_all('p')) #获取

标签的所有内容,返回内容为列表形式 print(soup.a) # 获取第一个标签 print(soup.find_all(id="link3")) #获取id="link3"的标签,并返回列表形式:[Tillie] #找到所有标签的链接 links=soup.find_all('a') #print(type(links)): for link in links: #print(type(link)): print(link['href']) #获取标签中的链接 #获取所有文字内容转化为二进制形式 print(soup.get_text())

3.遍历树

3.1 遍历子节点

  • contents:返回的是⼀个列表
  • children:返回的是⼀个迭代器通过这个迭代器可以进⾏迭代
  • descendants:返回的是⼀个⽣成器遍历⼦⼦孙孙
  • string:获取标签⾥⾯的内容。如果一个tag仅有一个子节点,那么这个tag也可以使用 .string 方法,输出结果与当前唯一子节点的 .string 结果相同。果tag包含了多个子节点,tag就无法确定 .string 方法应该调用哪个子节点的内容
  • strings:返回是⼀个⽣成器对象⽤过来获取多个标签内容
  • stripped_strings:和strings基本⼀致但是它可以把多余的空格去掉

用代码展示:

#contents
head_tag=soup.head
print(head_tag)  #The Dormouse's story
print(head_tag.contents)  #[The Dormouse's story]
title_tag=head_tag.contents[0]
print(title_tag.contents)  #["The Dormouse's story"]

#children
for child in title_tag.children:
    print(child)  #The Dormouse's story

#descendants
for child in head_tag.descendants:
    print(child)  
    #The Dormouse's story
    #The Dormouse's story

# string
print(title_tag.string)  #The Dormouse's story
print(soup.html.string)  #tag包含多个子节点,无法确定调用哪个,输出结果为None

# strings
for string in soup.strings:
    print(string)
    print(repr(string))  #将字符串以标准形式返回,空格也以"/n"的形式出现
	#"The Dormouse's story"
    # '\n'
    # '\n'
    # "The Dormouse's story"
    # '\n'
    # 'Once upon a time there were three little sisters; and their names were\n'
    # 'Elsie'
    # ',\n'
    # 'Lacie'
    # ' and\n'
    # 'Tillie'
    # ';\nand they lived at the bottom of a well.'
    # '\n'
    # '...'
    # '\n'
    
#stripped_strings
for string in soup.stripped_strings:
    print(repr(string))
    # "The Dormouse's story"
    # "The Dormouse's story"
    # 'Once upon a time there were three little sisters; and their names were'
    # 'Elsie'
    # ','
    # 'Lacie'
    # 'and'
    # 'Tillie'
    # ';\nand they lived at the bottom of a well.'
    # '...'
    
#stripped_strings
for string in soup.stripped_strings:
    print(repr(string))
    # "The Dormouse's story"
    # "The Dormouse's story"
    # 'Once upon a time there were three little sisters; and their names were'
    # 'Elsie'
    # ','
    # 'Lacie'
    # 'and'
    # 'Tillie'
    # ';\nand they lived at the bottom of a well.'
    # '...'

3.2 遍历父节点

  • parent直接获得⽗节点
  • parents获取所有的⽗节点

3.3 遍历兄弟节点

  • next_sibling 下⼀个兄弟结点
  • previous_sibling 上⼀个兄弟结点
  • next_siblings 下⼀个所有兄弟结点
  • previous_siblings上⼀个所有兄弟结点

4. 搜索树

  • 字符串过滤器
  • 正则表达式过滤器
    我们⽤正则表达式⾥⾯compile⽅法编译⼀个正则表达式传给 find 或者findall这个⽅法可以实现⼀个正则表达式的⼀个过滤器的搜索
  • 列表过滤器
  • True过滤器
  • ⽅法过滤器
# 字符串过滤器
a_tag2 = soup.a
# 查找所有标签
b_tag = soup.find_all('b')
print(b_tag)  #[The Dormouse's story]

# 正则表达式过滤器
import re
for tag in soup.find_all(re.compile('t')):
    print(tag.name)  
    #html                 
    #title

# 列表过滤器
print(soup.find_all(['p','a']))  #找到所有的p标签和a标签 
print(soup.find_all(['title','b']))  #[The Dormouse's story, The Dormouse's story]   

# True过滤器
for tag in soup.find_all(True):
    print(tag)  #层层递减,从最外层标签一直返回到最小标签
    print(tag.name)

#方法过滤器
def fn(tag):
    return tag.has_attr('class')
print(soup.find_all(fn)) #得到所有

标签

5. find_all() 和 find()

5.1 find_all()

  • find_all()⽅法以列表形式返回所有的搜索到的标签数据
  • find()⽅法返回搜索到的第⼀条数据

find_all()的方法参数:
deffind_all(self,name=None,attrs{},recursive=True,text=None,limit=None, kwargs)
name : tag名称
attr : 标签的属性
recursive : 是否递归搜索
text : ⽂本内容
limli : 限制返回条数
kwargs : 关键字参数

5.2 find_parents()、find_parent()find_next_siblings()、find_next_sibling()

  • find_parents() 搜索所有⽗亲
  • find_parrent() 搜索单个⽗亲
  • find_next_siblings()搜索所有兄弟
  • find_next_sibling()搜索单个兄弟

5.3 find_previous_siblings()、find_previous_sibling()、find_all_next()、find_next()

  • find_previous_siblings() 往上搜索所有兄弟
  • find_previous_sibling() 往上搜索单个兄弟
  • find_all_next()
  • 往下搜索所有元素 find_next()往下查找单个元素

6. 修改文档树

Beautiful Soup的强项是文档树的搜索,但同时也可以方便的修改文档树

  • 修改tag的名称和属性
  • 修改string 属性赋值,就相当于⽤当前的内容替代了原来的内容
  • append()向tag中添加内容,就好像Python的列表的 .append() ⽅法
  • decompose()修改删除段落,对于⼀些没有必要的⽂章段落我们可以给他删除掉

你可能感兴趣的:(爬虫入门(五)——BeautifulSoup4)