这篇教程主要包括re库以及BeautifulSoup库。
re库采用raw string类型表示正则表达式,通常被用来检索、替换那些符合某个模式(规则)的文本。
BeautifulSoup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,主要的功能是解析和提取HTML/XML 数据。
语法:re.match(pattern, string, flags=0)
import re
text = "This is the first one"
res = re.match('(.*) is (.*?) .*', text, re.M | re.I)
if res:
print("res.group() : ", res.group())
print("res.group(1) : ", res.group(1))
print("res.group(2) : ", res.group(2))
print("res.groups() : ", res.groups())
else:
print("No match!!")
源码如下:
import re
text = "This is the first one"
res = re.match('(.*) is (.*?) .*', text, re.M | re.I)
if res:
print("res.group() : ", res.group())
print("res.group(1) : ", res.group(1))
print("res.group(2) : ", res.group(2))
print("res.groups() : ", res.groups())
else:
print("No match!!")
输出结果:
res.group() : This is the first one
res.group(1) : This
res.group(2) : the
res.groups() : ('This', 'the')
find_value = re.findall('\w*oo\w*', 'poo this foo is roo')
print(find_value)
输出结果:
['poo', 'foo', 'roo']
find_value = re.findall('.*?(\d+).*?', 'bqfh62543.glh67d369wfb3895')
print(find_value)
输出结果:
['62543', '67', '369', '3895']
add = 'https://www.net.com.edu//action=?asdfsd and other https://www.baidu.com//a=b'
find_value = re.findall('((w{3}\.)(\w+\.)+(com|edu|cn|net))', add)
print(find_value)
输出结果:
[('www.net.com.edu', 'www.', 'com.', 'edu'), ('www.baidu.com', 'www.', 'baidu.', 'com')]
源代码:
import re
find_value = re.findall('\w*oo\w*', 'poo this foo is roo')
print(find_value)
find_value = re.findall('.*?(\d+).*?', 'bqfh62543.glh67d369wfb3895')
print(find_value)
add = 'https://www.net.com.edu//action=?asdfsd and other https://www.baidu.com//a=b'
find_value = re.findall('((w{3}\.)(\w+\.)+(com|edu|cn|net))', add)
print(find_value)
python内置库re中re.sub:用于替换字符串中的匹配项。
语法:re.sub(pattern, repl, string, count=0, flags=0)
import re
replace_value = re.sub('\d{6}$', '000012', '13888888888')
print(replace_value)
输出结果:
13888000012
BeautifulSoup是用来解析和提取 HTML/XML 数据使用的
安装BeautifulSoup第三方库
pip install beautifulsoup4 -i https://pypi.tuna.tsinghua.edu.cn/simple
使用python3对已下载的第三方包bs4进行调试。
from bs4 import BeautifulSoup
创建一个html文档
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
<title> Python</title>
</head>
<body>
<p id="python">
<a href="/index.html"> Python BeautifulSoup</a>
</p>
<p class=”myclass”>
<a href="http://www.baidu.com/">百度页面</a>
</p>
</body>
</html>
BeautifulSoup示例源码:
# 引入BeautifulSoup
from bs4 import BeautifulSoup
# 读取soup.html文件
Open_file = open('MySoup.html', 'r', encoding='utf-8')
# 将soup.html的内容赋值给Html_Content,并关闭文件
Html_Content = Open_file.read()
Open_file.close()
# 使用html5lib解释器解释Html_Content的内容
soup = BeautifulSoup(Html_Content, "html5lib")
# 输出title
print('html title is ' + soup.title.getText())
# 查找第一个标签p,并输出
find_p = soup.find('p', id="python")
print('the first is '
+ find_p.getText())
# 查找全部标签p,并输出
find_all_p = soup.find_all('p')
for i, k in enumerate(find_all_p):
print('the ' + str(i + 1) + ' p is ' + k.getText())
输出结果:
html title is Python
the first <p> is
Python BeautifulSoup
the 1 p is
Python BeautifulSoup
the 2 p is
百度页面
Html_content = """ Python
Beautiful Soup的学习
学习网址:http://blog.csdn.net/huangzhang_123
web开发,
网络爬虫 and
人工智能;
...
"""
from bs4 import BeautifulSoup
soup = BeautifulSoup(Html_content, "html5lib")
# 以下是查找某标签的方法:
# 获取头部的信息,返回之间的全部内容
print(soup.head)
# 获取title的信息,返回 之间的全部内容
print(soup.title)
# 这是个获取tag的小窍门,可以在文档树的tag中多次调用这个方法.下面的代码可以获取标签中的第一个标签,
# 也就是说,soup不一定是整个html的内容,可以先定位某部分,然后用这简洁方式获取,返回
# "Beautiful Soup的学习"
print(soup.body.b)
# 直接指定标签类别,返回第一个标签的内容。返回 "
# id = "try1">web开发"
print(soup.a)
# 获取全部的标签a。
print(soup.find_all('a'))
#[web开发,
#网络爬虫,
#人工智能]