【Note】Python爬虫入门系列

该笔记主要参考 cqc 大佬的 blog。

一、综述

二、爬虫基础了解

三、urllib库的基本使用

1、简单的爬取一个静态网页

response = urllib.request.urlopen("http://www.baidu.com")
print(response.read())

首先,注意,Python3中把 urllib 和 urllib2 合并了,这样其实逻辑更清楚。
其次,我们调用了urlopen这个方法,一般接受三个参数

urlopen(url, data, timeout)
  • url即为URL

  • data是访问URL时要传送的数据,默认为None

  • timeout是设置超时时间,默认为socket._GLOBAL_DEFAULT_TIMEOUT

返回值是一个response对象,read方法可以返回获取到的网页内容.

2、POST 和 GET 数据传送

(1)POST方式不会在链接上显示所有参数

values = {"username":"[email protected]", "password":"XX"}
data = urllib.parse.urlencode(values).encode('utf-8')
url = "https://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn"
request = urllib.request.Request(url, data)
response = urllib.request.urlopen(request)
print(response.read())

  但是上述代码可能登录不进去,因为CSDN还有个流水号的字段,没有设置全,比较复杂,这里只是为了说明登录的原理。

(2)GET方式会在连接上显示所有参数,不安全

values = {"username":"[email protected]", "password":"XX"}
data = urllib.parse.urlencode(values).encode('utf-8')
url = "https://passport.csdn.net/account/login"
getUrl = url + "?" + data
request = urllib.request.Request(url, data)
response = urllib.request.urlopen(request)
print(response.read())

四、urllib的高级用法

这些东西在Chrome浏览器的“检查/F12”中都可以看到。

1、设置 Headers

(1)有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些 Headers 的属性。

import urllib
url = "http://www.server.com/login"
user_agent = "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36"
values = {"username":"XXX", "password":"XXX"}
headers = {"User-Agent":user_agent}
data = urllib.parse.urlencode(values)
request = urllib.request.Request(url, data, headers)
response = urllib.request.urlopen(request)
page = response.read()

(2)另外,我们还有对付“反盗链”的方式。对付防盗链,服务器会识别 headers 中的 referer 是不是它自己,如果不是,有的服务器不会响应,所以我们还可以在 headers 中加入 referer。

headers = {"User-Agent":user_agent, "Referer":"https://www.zhihu.com/question/35120624"}

同上面的方法,在传送请求时把 headers 传入 Request 参数里,这样就能应付防盗链了。

(3)headers 的其他一些属性,下面的需要特别注意一下:

User-Agent : 有些服务器或 Proxy 会通过该值来判断是否是浏览器发出的请求
Content-Type : 在使用 REST 接口时,服务器会检查该值,用来确定 HTTP Body 中的内容该怎样解析。
application/xml : 在 XML RPC,如 RESTful/SOAP 调用时使用
application/json : 在 JSON RPC 调用时使用
application/x-www-form-urlencoded : 浏览器提交 Web 表单时使用

在使用服务器提供的RESTful或SOAP服务时,Content-Type设置错误会导致服务器拒绝服务。
其他的有必要的可以审查浏览器的headers内容,在构建时写入同样的数据即可。

2、Proxy(代理)的设置

import urllib
enable_proxy = True
proxy_handler = urllib.request.ProxyHandler({'sock5': 'localhost:1080'})
#静觅的做法,运行错误
#proxy_handler = urllib.request.ProxyHandler({"http":"http://some-proxy.com:8080"})
null_proxy_handler = urllib.request.ProxyHandler({})
if enable_proxy:
    opener = urllib.request.build_opener(proxy_handler)
else:
    opener = urllib.request.build_opener(null_proxy_handler)
urllib.request.install_opener(opener)
page = urllib.request.urlopen("https://www.baidu.com").read().decode("utf8")
print(page)

3、Timeout设置

timeout的设置,可以设置等待多久超时,为了解决一些网站实在响应过慢而造成的影响。

response = urllib.request.urlopen('http://www.baidu.com', timeout=10)
response = urllib.request.urlopen('http://www.baidu.com',data, 10)

4、使用 HTTP 的 PUT 和 DELETE 方法

http协议有六种请求方法,get,head,put,delete,post,options,我们有时候需要用到PUT方式或者DELETE方式请求。

  • PUT:这个方法比较少见。HTML表单也不支持这个。本质上来讲, PUT和POST极为相似,都是向服务器发送数据,但它们之间有一个重要区别,PUT通常指定了资源的存放位置,而POST则没有,POST的数据存放位置由服务器自己决定。

  • DELETE:删除某一个资源。基本上这个也很少见,不过还是有一些地方比如amazon的S3云服务里面就用的这个方法来删除资源。

如果要使用HTTP PUTDELETE,只能使用比较低层的 httplib 库。虽然如此,我们还是能通过下面的方式,使 urllib 能够发出 PUT 或DELETE 的请求,不过用的次数的确是少,在这里提一下。

import urllib
request = urllib.request.Request(uri, data=data)
request.get_method = lambda: 'PUT' # or 'DELETE'
response = urllib.request.urlopen(request)

5、使用DebugLog

可以通过下面的方法把 Debug Log 打开,这样收发包的内容就会在屏幕上打印出来,方便调试,这个也不太常用,仅提一下。

import urllib
httpHandler = urllib.request.HTTPHandler(debuglevel=1)
httpsHandler = urllib.request.HTTPSHandler(debuglevel=1)
opener = urllib.request.build_opener(httpHandler, httpsHandler)
urllib.request.install_opener(opener)
response = urllib.request.urlopen('http://www.baidu.com')

以上便是一部分高级特性,前三个是重要内容。后面还有cookies的设置及异常的处理。

五、URLError的异常处理

1、URLError

URLError可能产生的原因:

  • 网络无连接,即本机无法上网

  • 连接不到特定的服务器

  • 服务器不存在

在代码中,我们需要用try-except语句来包围并捕获相应的异常。

import urllib
request = urllib.request.Request("https://www.baibai.com")
try:
    urllib.request.urlopen(request)
except urllib.request.URLError as e:
    print(e.reason)

我们利用了 urlopen方法访问了一个不存在的网址,运行结果如下:

[Errno 11004] getaddrinfo failed

它说明了错误代号是11004,错误原因是 getaddrinfo failed。

2、HTTPError

HTTPError 是 URLError 的子类,在你利用 urlopen 方法发出一个请求时,服务器上都会对应一个应答对象 response,其中它包含一个数字”状态码”。举个例子,假如 response 是一个”重定向”,需定位到别的地址获取文档,urllib 将对此进行处理。

其他不能处理的,urlopen 会产生一个 HTTPError,对应相应的状态吗,HTTP 状态码表示 HTTP 协议所返回的响应的状态。下面将状态码归结如下:

100:继续 客户端应当继续发送请求。客户端应当继续发送请求的剩余部分,或者如果请求已经完成,忽略这个响应。
101: 转换协议 在发送完这个响应最后的空行后,服务器将会切换到在Upgrade 消息头中定义的那些协议。只有在切换新的协议更有好处的时候才应该采取类似措施。
102:继续处理 由WebDAV(RFC 2518)扩展的状态码,代表处理将被继续执行。
200:请求成功 处理方式:获得响应的内容,进行处理
201:请求完成,结果是创建了新资源。新创建资源的URI可在响应的实体中得到 处理方式:爬虫中不会遇到
202:请求被接受,但处理尚未完成 处理方式:阻塞等待
204:服务器端已经实现了请求,但是没有返回新的信 息。如果客户是用户代理,则无须为此更新自身的文档视图。 处理方式:丢弃
300:该状态码不被HTTP/1.0的应用程序直接使用, 只是作为3XX类型回应的默认解释。存在多个可用的被请求资源。 处理方式:若程序中能够处理,则进行进一步处理,如果程序中不能处理,则丢弃
301:请求到的资源都会分配一个永久的URL,这样就可以在将来通过该URL来访问此资源 处理方式:重定向到分配的URL
302:请求到的资源在一个不同的URL处临时保存 处理方式:重定向到临时的URL
304:请求的资源未更新 处理方式:丢弃
400:非法请求 处理方式:丢弃
401:未授权 处理方式:丢弃
403:禁止 处理方式:丢弃
404:没有找到 处理方式:丢弃
500:服务器内部错误 服务器遇到了一个未曾预料的状况,导致了它无法完成对请求的处理。一般来说,这个问题都会在服务器端的源代码出现错误时出现。
501:服务器无法识别 服务器不支持当前请求所需要的某个功能。当服务器无法识别请求的方法,并且无法支持其对任何资源的请求。
502:错误网关 作为网关或者代理工作的服务器尝试执行请求时,从上游服务器接收到无效的响应。
503:服务出错 由于临时的服务器维护或者过载,服务器当前无法处理请求。这个状况是临时的,并且将在一段时间以后恢复。

HTTPError 实例产生后会有一个 code 属性,这就是是服务器发送的相关错误号。

因为 urllib 可以为你处理重定向,也就是 3 开头的代号可以被处理,并且 100-299 范围的号码指示成功,所以你只能看到 400-599 的错误号码。

下面我们写一个例子来感受一下,捕获的异常是 HTTPError,它会带有一个 code 属性,就是错误代号,另外我们又打印了 reason 属性,这是它的父类 URLError 的属性:

import urllib
request = urllib.request.Request('http://blog.csdn.net/cqc')
try:
    urllib.request.urlopen(request)
except urllib.request.HTTPError as e:
    print(e.code)
    print(e.reason)

运行结果:错误代号是404,错误原因是Not Found

我们知道,HTTPError的父类是URLError,根据编程经验,父类的异常应当写到子类异常的后面,如果子类捕获不到,那么可以捕获父类的异常,所以上述的代码可以这么改写:

import urllib
request = urllib.request.Request('http://blog.csdn.net/ccc')
try:
    urllib.request.urlopen(request)
except urllib.error.HTTPError as e:
    print("HTTPError")
    print(e.code, e.reason)
except urllib.error.URLError as e:
    print("URLError")
    print(e.code, e.reason)
else:
    print("OK")

另外,还可以加入 hasattr属性提前对属性进行判断,代码改写如下:

import urllib
request = urllib.request.Request('[https://www.baibai.com](https://www.baibai.com/)')
try:
    urllib.request.urlopen(request)
except urllib.error.URLError as e:
    if hasattr(e, "reason"):
        print(e.reason)
else:
    print("OK")

首先对异常的属性进行判断,以免出现属性输出报错的现象。

六、Cookie 的使用

  Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)。
  比如说有些网站需要登录后才能访问某个页面,在登录前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。

1、Opener
  当你获取一个URL你使用一个opener(一个urllib.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。
  如果我们需要用到Cookie,只用这个opener是不能达到目的的,所以我们需要创建更一般的opener来实现对Cookie的设置。

2、Cookielib

  cookielib模块的主要作用是提供可存储 cookie 的对象,以便于与 urllib 模块配合使用来访问 Internet 资源。Cookielib 模块非常强大,我们可以利用本模块的 CookieJar 类的对象来捕获 cookie 并在后续连接请求时重新发送,比如可以实现模拟登录功能。该模块主要的对象有 CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。
它们的关系:CookieJar --派生--> FileCookieJar --派生--> MozillaCookieJar和LWPCookieJar

(1)获取 Cookie 保存到变量
首先,我们先利用 CookieJar 对象实现获取 cookie的功能,存储到变量中:

import urllib
import http.cookiejar as hc
#声明一个CookieJar对象实例来保存cookie
cookie = hc.CookieJar()
#利用urllib库的HTTPCookieProcessor对象来创建cookie处理器
handler=urllib.request.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener = urllib.request.build_opener(handler)
#此处的open方法同urllib的urlopen方法,也可以传入request
response = opener.open('http://www.baidu.com')
for item in cookie:
    print("name = " +item.name)
    print("value= " +item.value)

每次的运行结果中的 value 都不同。某次的运行结果为:

name = BAIDUID
value= 5A3083717227D67BF0691E0B37F6E68F:FG=1
name = BIDUPSID
value= 5A3083717227D67BF0691E0B37F6E68F
name = H_PS_PSSID
value= 26524_1425_27212_21120_18559_27244_22158
name = PSTM
value= 1543115615
name = delPer
value= 0
name = BDSVRTM
value= 0
name = BD_HOME
value= 0

(2)保存 Cookie 到文件
  如果想要将 cookie 保存到文件中,就要用到 FileCookieJar 这个对象了,在这里我们使用它的子类MozillaCookieJar来实现 Cookie 的保存。

import urllib
import http.cookiejar as hc
#设置保存cookie的文件,同级目录下的cookie.txt
filename = 'cookie.txt'
cookie = hc.MozillaCookieJar(filename)
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)
response= opener.open("http://www.baidu.com")
#保存cookie到文件
cookie.save(ignore_discard = True, ignore_expires = True)

每次运行结果都不一样。某次运行后,文件中的内容是:

# Netscape HTTP Cookie File
# http://curl.haxx.se/rfc/cookie_spec.html
# This is a generated file!  Do not edit.

.baidu.com    TRUE    /    FALSE    3690601416    BAIDUID    D7FFD9F3ECD41F5CF83AC79018247617:FG=1
.baidu.com    TRUE    /    FALSE    3690601416    BIDUPSID    D7FFD9F3ECD41F5CF83AC79018247617
.baidu.com    TRUE    /    FALSE        H_PS_PSSID    1422_21106_26350_27244_27508
.baidu.com    TRUE    /    FALSE    3690601416    PSTM    1543117761
.baidu.com    TRUE    /    FALSE        delPer    0
www.baidu.com    FALSE    /    FALSE        BDSVRTM    0
www.baidu.com    FALSE    /    FALSE        BD_HOME    0

关于最后save方法的两个参数在此说明一下。官方解释如下:

ignore_discard: save even cookies set to be discarded.
ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists

  由此可见,ignore_discard的意思是即使 cookies 将被丢弃也将它保存下来,ignore_expires的意思是如果在该文件中 cookies 已经存在,则覆盖原文件写入,在这里,我们将这两个全部设置为 True。

(3)从文件中获取 Cookie 并访问
  我们已经做到把Cookie保存到文件中了,如果以后想使用,可以利用下面的方法来读取cookie并访问网站:

import urllib
import http.cookiejar as hc
cookie = hc.MozillaCookieJar()
cookie.load('cookie.txt', ignore_discard=True, ignore_expires=True)
#创建请求的request
request = urllib.request.Request("http://www.baidu.com")
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)
response = opener.open(request)
print(response.read())

  设想,如果我们的 cookie.txt 文件中保存的是某人登录百度的cookie,那么我们提取出这个cookie文件内容,就可以用以上方法模拟这个人的账号登录百度。

(4)利用 cookie 模拟网站登录
  原理是:创建一个带有 cookie 的 opener,在访问登录的 URL 时,将登录后的 cookie 保存下来,然后利用这个 cookie 来访问其他网址。如登录之后才能查看的成绩查询呀,本校的课堂在线啊等等网址,模拟登录就这么实现啦!
以我们学校的教育系统为例,利用 cookie 实现模拟登录,并将 cookie 信息保存到文本文件中,来感受一下 cookie 大法吧:

import urllib
import http.cookiejar as hc
filename = 'cookie.txt'
cookie = hc.MozillaCookieJar(filename)
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)
postdata = urllib.parse.urlencode({'username':'XXX',
                                     'password':'XXX'}).encode('utf8')
#登录教务系统的 URL
loginURL = "http://my.hhu.edu.cn/login.portal"
#模拟登录,并把 cookie 保存到变量
result = opener.open(loginURL, postdata)
#保存 cookie 到 cookie.txt 中
cookie.save(ignore_discard=True, ignore_expires = True)
#利用 cookie 请求访问另一个网址,此网址是本校课堂在线
ktzxURL = "http://ktzx.hhu.edu.cn/portal/"
#请求访问该网址,并将读取到的内容保存至文件中
result2 = opener.open(ktzxURL)
with open("read.txt", "wb") as f:
    f.write(result2.read())

现在可以顺利获取网站信息了,接下来就是把网站里面有效内容提取出来,下一节会会正则表达式吧!

七、正则表达式

1、了解正则表达式
  正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个规则字符串,这个规则字符串用来表达对字符串的一种过滤逻辑。

正则表达式的大致匹配过程是:

  • 依次拿出表达式和文本中的字符比较,
  • 如果每一个字符都能匹配,则匹配成功;一旦有匹配不成功的字符则匹配失败。
  • 如果表达式中有量词或边界,这个过程会稍微有一些不同。

2、正则表达式的语法规则

【Note】Python爬虫入门系列_第1张图片

3、正则表达式相关注解
(1)数量词的贪婪模式与非贪婪模式
  正则表达式通常用于在文本中查找匹配的字符串。Python里数量词默认是贪婪的(在少数语言里也可能是默认非贪婪),总是尝试匹配尽可能多的字符;非贪婪的则相反,总是尝试匹配尽可能少的字符。例如:正则表达式 ab* 如果用于查找 abbbc,将找到 abbb。而如果使用非贪婪的数量词 ab*?,将找到 a。
注:我们一般使用非贪婪模式来提取。
(2)反斜杠问题
  与大多数编程语言相同,正则表达式里使用\作为转义字符,这就可能造成反斜杠困扰。假如你需要匹配文本中的字符\,那么使用编程语言表示的正则表达式里将需要 4 个反斜杠\\\\:前两个和后两个分别用于在编程语言里转义成反斜杠,转换成两个反斜杠后再在正则表达式里转义成一个反斜杠。
Python里的原生字符串很好地解决了这个问题,这个例子中的正则表达式可以使用r"\\"表示。同样,匹配一个数字的"\d"可以写成r"\d"。有了原生字符串,妈妈也不用担心是不是漏写了反斜杠,写出来的表达式也更直观勒。

4、Python Re模块
(1) re.compile(string[,flag])

#返回pattern对象
re.compile(string[,flag])

其中,flag是匹配模式,取值可以使用按位或运算符|表示同时生效,比如 re.I | re.M。可选值有:

• re.I(全拼:IGNORECASE): 忽略大小写(括号内是完整写法,下同)
• re.M(全拼:MULTILINE): 多行模式,改变'^'和'$'的行为(参见上图)
• re.S(全拼:DOTALL): 点任意匹配模式,改变'.'的行为
• re.L(全拼:LOCALE): 使预定字符类 \w \W \b \B \s \S 取决于当前区域设定
• re.U(全拼:UNICODE): 使预定字符类 \w \W \b \B \s \S \d \D 取决于unicode定义的字符属性
• re.X(全拼:VERBOSE): 详细模式。这个模式下正则表达式可以是多行,忽略空白字符,并可以加入注释。

注:以下七个方法中的 flags 同样是代表匹配模式的意思,如果在 pattern 生成时已经指明了 flags,那么在下面的方法中就不需要传入这个参数了。
(2)re.match(pattern, string[, flags])
  这个方法将会从 string(我们要匹配的字符串)的开头开始,尝试匹配 pattern,一直向后匹配。如果遇到无法匹配的字符,或者匹配未结束已经到达 string 的末尾,都会返回 None,表示匹配失败。否则匹配 pattern 成功,同时匹配终止,不再对 string 向后匹配。

import re
# 将正则表达式编译成Pattern对象,注意hello前面的r的意思是“原生字符串”
pattern = re.compile(r'hello')
# 使用re.match匹配文本,获得匹配结果,无法匹配时将返回None
res1 = re.match(pattern, 'hello')
res2 = re.match(pattern, 'helloo world')
res3 = re.match(pattern, 'helo world')
res4 = re.match(pattern, 'hello world')
if res1:
print(res1.group())
else:
print("1匹配失败")
if res2:
print(res2.group())
else:
print("2匹配失败")
if res3:
print(res3.group())
else:
print("3匹配失败")
if res4:
print(res4.group())
else:
print("4匹配失败")

运行结果为:

hello
hello
3匹配失败
hello

  我们还看到最后打印出了 result.group(),这个是什么意思呢?下面我们说一下关于 match 对象的的属性和方法。
  Match 对象是一次匹配的结果,包含了很多关于此次匹配的信息,可以使用 Match 提供的可读属性或方法来获取这些信息。

属性:
1.string: 匹配时使用的文本。
2.re: 匹配时使用的Pattern对象。
3.pos: 文本中正则表达式开始搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。
4.endpos: 文本中正则表达式结束搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。
5.lastindex: 最后一个被捕获的分组在文本中的索引。如果没有被捕获的分组,将为None。
6.lastgroup: 最后一个被捕获的分组的别名。如果这个分组没有别名或者没有被捕获的分组,将为None。

方法:
1.group([group1, …]):
获得一个或多个分组截获的字符串;指定多个参数时将以元组形式返回。group1可以使用编号也可以使用别名;编号0代表整个匹配的子串;不填写参数时,返回group(0);没有截获字符串的组返回None;截获了多次的组返回最后一次截获的子串。
2.groups([default]):
以元组形式返回全部分组截获的字符串。相当于调用group(1,2,…last)。default表示没有截获字符串的组以这个值替代,默认为None。
3.groupdict([default]):
返回以有别名的组的别名为键、以该组截获的子串为值的字典,没有别名的组不包含在内。default含义同上。
4.start([group]):
返回指定的组截获的子串在string中的起始索引(子串第一个字符的索引)。group默认值为0。
5.end([group]):
返回指定的组截获的子串在string中的结束索引(子串最后一个字符的索引+1)。group默认值为0。
6.span([group]):
返回(start(group), end(group))。
7.expand(template):
将匹配到的分组代入template中然后返回。template中可以使用\id或\g、\g引用分组,但不能使用编号0。\id与\g是等价的;但\10将被认为是第10个分组,如果你想表达\1之后是字符’0’,只能使用\g0。

下面我们用一个例子来体会一下:

import re
# 匹配如下内容:单词+空格+单词+任意字符
m = re.match(r'(\w+) (\w+)(?P.*)', 'hello world!')
print("m.string: ", m.string)
print("m.re    : ", m.re)
print("m.pos   : ", m.pos)
print("m.endpos: ", m.endpos)
print("m.lastindex  : ", m.lastindex)
print("m.lastgroup  : ", m.lastgroup)
print("m.group()    : ", m.group())
print("m.group(1,2) : ", m.group(1,2))
print("m.groups()   : ", m.groups())
print("m.groupdict(): ", m.groupdict())
print("m.start(2)   : ", m.start(2))
print("m.end(2)     : ", m.end(2))
print("m.span(2)    : ", m.span(2))
print(r"m.expand(r'\g \g\g'): ", m.expand(r'\2 \1\3'))

运行结果:

m.string:  hello world!
m.re    :  re.compile('(\\w+) (\\w+)(?P.*)')
m.pos   :  0
m.endpos:  12
m.lastindex  :  3
m.lastgroup  :  sign
m.group()    :  hello world!
m.group(1,2) :  ('hello', 'world')
m.groups()   :  ('hello', 'world', '!')
m.groupdict():  {'sign': '!'}
m.start(2)   :  6
m.end(2)     :  11
m.span(2)    :  (6, 11)
m.expand(r'\g \g\g'):  world hello!

(3)re.search(pattern, string[, flags])
  search 方法与 match 方法极其类似,区别在于match()只检测 re 是不是在 string 的开始位置匹配,search()会扫描整个 string 查找匹配。search()的返回对象和 match()返回对象的方法和属性一样。我们用一个例子感受一下:

import re
pattern = re.compile(r'world')
match  = re.match(pattern, "hello world!")
search = re.search(pattern, "hello world!")
if match:
    print("match 成功:" + match.group())
if search:
    print("search 成功:" + search.group())
#运行结果:search 成功:world

(4)re.split(pattern, string[, maxsplit])
  按照能够匹配的子串将string分割后返回列表。maxsplit 用于指定最大分割次数,不指定将全部分割。

import re
pattern = re.compile(r'\d+')
print(re.split(pattern, 'ont1two2three3four4'))
#运行结果:['ont', 'two', 'three', 'four', '']

(5)re.findall(pattern, string[, flags])

import re
pattern = re.compile(r'\d+')
print(re.findall(pattern,'one1two2three3four4'))
#运行结果:['1', '2', '3', '4']

(6)re.finditer(pattern, string[, flags])
  搜索string,返回一个顺序访问每一个匹配结果(Match对象)的迭代器。

import re
pattern = re.compile(r'\d+')
for m in re.finditer(pattern, 'one1two2three3four4'):
    print(m.group(), end = ' ')
运行结果:1 2 3 4

(7)re.sub(pattern, repl, string[, count])
使用 repl 替换 string 中每一个匹配的子串后返回替换后的字符串。

  • 当 repl 是一个字符串时,可以使用\id或\g、\g引用分组,但不能使用编号0。
  • 当 repl 是一个方法时,这个方法应当只接受一个参数(Match对象),并返回一个字符串用于替换(返回的字符串中不能再引用分组)。

使用 count 用于指定最多替换次数,不指定时全部替换。

import re
pattern = re.compile(r'(\w+) (\w+)')
s = 'i say, hello world!'
print(re.sub(pattern,r'\2 \1', s))
def func(m):
    return m.group(1).title() + ' ' + m.group(2).title()
print(re.sub(pattern,func, s))
#运行结果:
#say i, world hello!
#I Say, Hello World!

(8)re.subn(pattern, repl, string[, count])
返回 (sub(repl, string[, count]), 替换次数)。

import re
pattern = re.compile(r'(\w+) (\w+)')
s = 'i say, hello world!'
print(re.sub(pattern,r'\2 \1', s))
def func(m):
    return m.group(1).title() + ' ' + m.group(2).title()
print(re.sub(pattern,func, s))
#运行结果:
#('say i, world hello!', 2)
#('I Say, Hello World!', 2)

5、Python re 模块的另一种使用方式
  在上面我们介绍了 7 个工具方法(第一个可看做生成 pattern 对象的方法),例如 match、search 等等,不过调用方式都是re.match,re.search的方式,其实还有另外一种调用方式,可以通过pattern.match,pattern.search调用,这样调用便不用将pattern 作为第一个参数传入了,大家想怎样调用皆可。

你可能感兴趣的:(【Note】Python爬虫入门系列)