解析网页--正则表达式--python爬虫知识点4

正则表达式

  • 一、正则表达式的简介
  • 二、正则表达式的使用
    • (一)re模块常用方法
      • `match()`
      • `search()`
      • `findall()`
      • `compile() `
      • ` split()`
      • `sub()`
      • `分组模式group()`
    • (二)pattern的模式
  • 二、正则爬虫应用

  • 爬虫要求不高,如果你写的表达式很复杂就说明该网站并不适合用正则来处理
  • 掌握基础

一、正则表达式的简介

概念

  • 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑
  • 特殊符号组合在一起的一个字符串,对你预知的一个字符串做一个验证,验证字符串的“机器、锁”
  • 逻辑就是对事物观察分析后概括判断后的结果

应用场景

  • 爬虫
  • 表达验证(例如 : 手机号、邮箱、身份证… )
    • 登入网站app的时候填入的个人信息进行验证

二、正则表达式的使用

在python当中有一个内置模块re专门用来实现正则表达式

(一)re模块常用方法

解析网页--正则表达式--python爬虫知识点4_第1张图片

  • pattern:正则表达式的模板
  • string:表示要匹配、检验的字符串数据
  • flags:标致位,匹配的方式,位用于控制正则表达式的匹配方式 ,如: 是否区分大小写,多行匹配等等,多行匹配re.S
    解析网页--正则表达式--python爬虫知识点4_第2张图片

match()

在文本内查找,返回第一个匹配到的字符串

  • match(pattern, string, flags=0)
    • 有返回值,如果匹配成功了就返回一个match对象,否则返回一个None
      如果不是空性的值一定是返回true,空性的0或者None
    • 以开头开始匹配,如果开头不符合就会报错

search()

在文本内查找,返回第一个匹配到的字符串

  • search(pattern, string, flags=0)
    • 它的返回值类型和使用方法与match()是一样的,唯一的区别就是search()查找的位置不用固定在文本的开头

findall()

在文本内查找,返回所有匹配到的字符串

  • findall(pattern, string, flags=0)
  • 返回列表
    • 全文查找,它的返回值是一个匹配到的字符串的列表这个列表没有group()方法,没有start、end、span,更不是一个匹配对象,仅仅是个列表!如果一项都没有匹配到那么返回一个空列表
    • 作为re模块的三大搜索函数之一,findall()和match()、search()
    • 不同之处在于,match()、search()都是单值匹配,找到一个就忽略后面,直接返回不再查找了。而findall是全文查找

compile()

将字符串转化为Pattern

  • compile(pattern, flags=0)
    • ⽤于将字符串形式的正则表达式编译为Pattern模式对象,可以实现更加效率的匹配。
    • 返回对象,类似高阶函数的返回对象
    • 第二个参数flag是匹配模式 使用compile()完成一次转换后,再次使用该匹配模式的时候就不能进行转换了。
    • 经过compile()转换的正则表达式对象就可以当成模板使用
      解析网页--正则表达式--python爬虫知识点4_第3张图片

split()

分割字符串

  • split(pattern, string, maxsplit=0, flags=0)
    • 分割字符串
    • 返回列表
    • maxsplit:用于指定分割的次数,剪断的次数
    • re模块的split()方法和字符串的split()方法很相似,都是利用特定的字符去分割字符串。re模块的split()可以使用正则表达式,因此更灵活,更强大
      解析网页--正则表达式--python爬虫知识点4_第4张图片

sub()

指定替换次数

  • sub(pattern, repl, string, count=0, flags=0)
    • sub()方法类似字符串的replace()方法,用指定的内容替换匹配到的字符,可以指定替换次数

分组模式group()

  • match().group() 、search().group()
  • Python的re模块的一个分组功能。所谓的分组就是去已经匹配到的内容再筛选出需要的内容,相当于二次过滤。实现分组靠圆括号(),而获取分组的内容靠的是group()、groups(),其实前面我们已经展示过。re模块里的积个重要方法在分组上,有不同的表现形式,需要区别对待
  • 以前只匹配 我现在不仅匹配数据还要获取 就可以加分组
  • group():
    • group() group(0) 匹配整个字符
    • group(1) 匹配第1个分组 group(2) 匹配第2个分组
  • groups()
  • 匹配整个分组
  • 返回元组的格式
  • 不仅要匹配符合的字符,还要获取,就可以加分组
    解析网页--正则表达式--python爬虫知识点4_第5张图片

(二)pattern的模式

普通字符

  • 字母、数字、汉字、下划线、以及没有特殊定义的符号,都是"普通字符"。正则表达式中的普通字符,在匹配的时候,只匹配与自身相同的一个字符。
  • 例如:表达式c,在匹配字符串abcde时,匹配结果是:成功;匹配到的内容是c;匹配到的位置开始于2,结束于3。(注:下标从0开始还是从1开始,因当前编程语言的不同而可能不同)
    在这里插入图片描述

元字符

  • 正则表达式中使⽤了很多元字符,⽤来表示⼀些特殊的含义或功能
    解析网页--正则表达式--python爬虫知识点4_第6张图片
    解析网页--正则表达式--python爬虫知识点4_第7张图片
  • 一些无法书写或者具有特殊功能的字符,采用在前面加斜杠""进行转义的方法。例如下表所示
    解析网页--正则表达式--python爬虫知识点4_第8张图片
  • 尚未列出的还有问号?、星号*和括号等其他的符号。所有正则表达式中具有特殊含义的字符在匹配自身的时候,都要使用斜杠进行转义。这些转义字符的匹配用法与普通字符类似,也是匹配与之相同的一个字符

预定义匹配字符集

  • 正则表达式中的一些表示方法,可以同时匹配某个预定义字符集中的任意一个字符。比如,表达式\d可以匹配任意一个数字。虽然可以匹配其中任意字符,但是只能是一个,不是多个
    解析网页--正则表达式--python爬虫知识点4_第9张图片

重复匹配

  • 前面的表达式,无论是只能匹配一种字符的表达式,还是可以匹配多种字符其中任意一个的表达式,都只能匹配一次。但是有时候我们需要对某个字段进行重复匹配,例如手机号码13666666666,一般的新手可能会写\d\d\d\d\d\d\d\d\d\d\(注意,这不是一个恰当的表达式),不但写着费劲,看着也累,还不⼀定准确恰当。
    这种情况可以使用表达式再加上修饰匹配次数的特殊符号{},不但重复书写表达式就可以重复匹配。例如[abcd][abcd]可以写成[abcd]{2}
    ![在这里插入图片描述](https://img-blog.csdnimg.cn/20210427212703947.png?x-oss-解析网页--正则表达式--python爬虫知识点4_第10张图片

位置匹配和非贪婪匹配

  • 位置匹配
    有时候,我们对匹配出现的位置有要求,比如开头、结尾、单词之间等等
    解析网页--正则表达式--python爬虫知识点4_第11张图片

贪婪与非贪婪模式

  • 默认贪婪模式。在重复匹配时,正则表达式默认总是尽可能多的匹配,这被称为贪婪模式,总是尝试匹配尽可能多的字符
    • 贪婪匹配与match、search只匹配一个,match和search匹配一个是满足条件的最长一个,所以贪婪匹配,非贪婪匹配是指满足条件最短的。
      解析网页--正则表达式--python爬虫知识点4_第12张图片

校验数字的相关表达式:
解析网页--正则表达式--python爬虫知识点4_第13张图片
特殊场景的表达式:
解析网页--正则表达式--python爬虫知识点4_第14张图片

二、正则爬虫应用

爬虫案例

  • 需求:爬取7天的 天气情况 日期 天气状况温度 风力–> 保存到CSV
    • http://www.weather.com.cn/weather/101250101.shtml 目标url
      http://www.weather.com.cn/weather15d/101250101.shtml 8-15天
  • 解决方案: requests re
    • 第一步 分析页面
      第二个 思路总结
    • 1.先获取网页的源代码 整个html文件
      2.从网页的源代码当中去匹配ul标签的数据
      3.从ul标签里面去匹配li标签的数据
      4.去解析li标签里面的数据
      5.保存数据
      解析网页--正则表达式--python爬虫知识点4_第15张图片

保存一天的数据,用到compile相同的获取数据模式获取7天

import requests
import re
import csv

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.128 Safari/537.36'
}

class WeatherSpider:

    # 获取网页源代码
    # 类对象 实例对象 实例方法 类方法
    def getSource(self):
        # 目标url
        url = 'http://www.weather.com.cn/weather/101250101.shtml'
        resp = requests.get(url,headers=headers)
        # print(resp.content.decode('utf-8'))
        return resp.content.decode('utf-8')

    # 解析数据 保存数据
    def parseSource(self):
        content = self.getSource()
        # 匹配ul 正则表达式比较灵活 .*?ul标签前面的数据
        # 匹配并获取的 (
    .*?
) .*?ul标签后面的数据 result = re.match(r'.*?(
    .*?
).*?',content,re.S) # print(result.group(1)) # 匹配li ul = result.group(1) lis = re.findall(r'.*?',ul,re.S) lst_all = [] # 保存所有的天气数据 pattern = re.compile(r'.*?

(.*?)

.*?(.*?)

.*?(.*?).*?(.*?).*?',re.S) for li in lis: r = pattern.match(li) lst_one = [r.group(1),r.group(2),r.group(3),r.group(4)] lst_all.append(lst_one) return lst_all # 保存数据 def saveData(self): content = self.parseSource() with open('weather7day.csv','w',encoding='utf-8',newline='') as file_obj: writer = csv.writer(file_obj) writer.writerow(['日期','天气','温度','风力']) writer.writerows(content) def main(): WeatherSpider().saveData() if __name__ == '__main__': main()

获取7天各列的数据,在整合,主要用到findall

import re
import requests
import csv

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.128 Safari/537.36'
}

class WeatherSpider:

    def getsouce(self):
        url = 'http://www.weather.com.cn/weather/101250101.shtml'
        req = requests.get(url, headers = headers).content.decode('utf-8')
        return req

    def parseSource(self):
        req = self.getsouce()
        content = re.search(r'
    .*?
', req, re.S).group() self.days = re.findall(r'

(.*?)

', content, re.S) self.weather = re.findall(r'

.*?(.*?)/(.*?)', content, re.S) self.wind = re.findall(r'

.*?(.*?)', content, re.S) def saveData(self): self.parseSource() headers = ['日期', '天气', '最高温度', '最低温度', '风向', '风力'] with open('weather7s.csv', 'w', encoding='utf-8', newline='') as file_obj: writer = csv.writer(file_obj) writer.writerow(headers) for i in range(7): list_one = [self.days[i], self.weather[i], self.tem[i][0], self.tem[i][1], self.wind[i][0], self.wind[i][1]] writer.writerow(list_one) def main(): WeatherSpider().saveData() if __name__ == '__main__': main()

解析网页--正则表达式--python爬虫知识点4_第16张图片

你可能感兴趣的:(python爬虫知识,正则表达式,python)