BeautifulSoup简称: bs4 。
什么是BeatifulSoup? BeautifulSoup,和lxml一样,是一个html的解析器,主要功能也是解析和提取数据 。
优缺点?
缺点:效率没有lxml的效率高
优点:接口设计人性化,使用方便。
快速安装 --> pip install bs4 -i https://pypi.douban.com/simple
在pycharm中的Settings中直接添加:
3.在编辑器里导入from bs4 import BeautifulSoup
4.创建对象
服务器响应的文件生成对象 :
soup = BeautifulSoup(response.read().decode(), 'lxml')
本地文件生成对象:
soup = BeautifulSoup(open('1.html'), 'lxml')
注意:默认打开文件的编码格式gbk所以需要指定打开编码格式。
1.要解析的html文件
Title
- 张三
- 李四
- 王五
python
嘿嘿嘿
百度
哈哈哈
呵呵呵
(1)找到的是第一个符合条件的数据,并获取标签的属性和属性值
from bs4 import BeautifulSoup
# 本地文件生成对象
# 注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
soup = BeautifulSoup(open('解析_bs4的基本使用.html',encoding='utf-8'), 'lxml')
# 根据标签名查找节点
# 找到的是第一个符合条件的数据
print(soup.a)
# 获取标签的属性和属性值
print(soup.a.attrs)
结果:
(2)bs4 find函数示例:返回的是第一个符合条件的数据
from bs4 import BeautifulSoup
# 本地文件生成对象
# 注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
soup = BeautifulSoup(open('解析_bs4的基本使用.html',encoding='utf-8'), 'lxml')
# bs4的一些函数
# (1)find
# 返回的是第一个符合条件的数据
print(soup.find('a'))
# 根据title的值来找到对应的标签对象
print(soup.find('a', title="a2"))
# 根据class的值来找到对应的标签对象 注意的是class需要添加下划线
print(soup.find('a', class_="a1"))
结果:
(3)find_all 方法是返回所有符合条件的数据(列表形式)
from bs4 import BeautifulSoup
# 本地文件生成对象
# 注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
soup = BeautifulSoup(open('解析_bs4的基本使用.html',encoding='utf-8'), 'lxml')
# (2)find_all 返回的是一个列表 并且返回了所有的a标签
print(soup.find_all('a'))
# 如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据
print(soup.find_all(['a', 'span']))
# limit的作用是查找前几个数据
print(soup.find_all('li', limit=2))
结果:
(4)select方法返回的是一个列表(符合条件的所有数据)
from bs4 import BeautifulSoup
# 本地文件生成对象
# 注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
soup = BeautifulSoup(open('解析_bs4的基本使用.html',encoding='utf-8'), 'lxml')
# (3)select(推荐)
# select方法返回的是一个列表 并且会返回多个数据
print(soup.select('a'))
#
# 可以通过.代表class 我们把这种操作叫做类选择器
print(soup.select('.a1'))
#
# 可以通过#代表id 我们把这种操作叫做id选择器
print(soup.select('#l1'))
# 属性选择器---通过属性来寻找对应的标签
# 查找到li标签中有id的标签
print(soup.select('li[id]'))
# 查找到li标签中id为l2的标签
print(soup.select('li[id="l2"]'))
# 层级选择器
# 后代选择器
# 找到的是div下面的li
print(soup.select('div li'))
# 子代选择器
# 某标签的第一级子标签
# 注意:很多的计算机编程语言中 如果不加空格不会输出内容 但是在bs4中 不会报错 会显示内容
print(soup.select('div > ul > li'))
# 找到a标签和li标签的所有的对象
print(soup.select('a,li'))
结果:
(5)select节点信息
from bs4 import BeautifulSoup
# 本地文件生成对象
# 注意:默认打开文件的编码格式gbk所以需要指定打开编码格式
soup = BeautifulSoup(open('解析_bs4的基本使用.html',encoding='utf-8'), 'lxml')
# 节点信息
# 获取节点内容
obj = soup.select('#d1')[0]
# 如果标签对象中 只有内容 那么string和get_text()都可以使用
# 如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()是可以获取数据
# 我们一般情况下 推荐使用get_text()
print(obj.string)
print(obj.get_text())
# 节点的属性
obj = soup.select('#p1')[0]
# name是标签的名字
print(obj.name)
# 将属性值左右一个字典返回
print(obj.attrs)
# 获取节点的属性
obj = soup.select('#p1')[0]
#
print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])
结果:
解析代码如下:
import urllib.request
from bs4 import BeautifulSoup
url = 'https://www.starbucks.com.cn/menu/'
response = urllib.request.urlopen(url)
content = response.read().decode('utf-8')
soup = BeautifulSoup(content, 'lxml')
# xpath插件获取 //ul[@class='grid padded-3 product']//strong/text()
name_list = soup.select('ul[class="grid padded-3 product"] strong')
for name in name_list:
print(name.string)
结果: