网络爬虫——猫眼电影数据抓取——RE(正则表达式)

网络爬虫——猫眼电影数据抓取——RE(正则表达式)

猫眼电影榜单网址:https://maoyan.com/board/4

目标数据描述:
(1)排名 (2)电影名称 (3)主演 (4)上映时间 (5)评分
网络爬虫——猫眼电影数据抓取——RE(正则表达式)_第1张图片
任务要求

(1)使用requests库实现该网站网页源代码的获取;

(2)使用正则表达式对获取的源代码进行解析,并成功找到目标数据所在的特定标签,进行网页结构的解析;

(3)定义函数,将获取的目标数据打印输出,有能力的同学可以试着将结果写入文件中。

(4)使用框架式结构,通过参数传递实现整个特定数据的爬取。

可以使用生成器,将目标数据获取后放到字典中返回,同时,注意观察分页时url的变化,以便获取整个的排行榜数据。建议通过for循环传递变化参数实现。

源码

import json
import requests
from requests.exceptions import RequestException
import re
import time

def get_one_page(url):
    try:
        headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Safari/537.36'}
        response=requests.get("https://maoyan.com/board/4",headers = headers)
        if response.status_code == 200:
                 return response.text
        return None
    except RequestException:
        return None
        
def parse_one_page(html):
    pattern= re.compile('
.*?board-index.*?>(\d+).*?data-src="(.*?)".*?name"> + '.*?>(.*?).*?star">(.*?)

.*?releasetime">(.*?)

'
+ '.*?integer">(.*?).*?fraction">(.*?).*?
'
,re.S) items = re.findall(pattern,html) for item in items: yield{ 'index': item[0], 'image': item[1], 'title': item[2], 'actor': item[3].strip()[3:], 'time': item[4].strip()[5:], 'score': item[5] + item[6] } def write_to_file(content): with open('result.txt', 'a' , encoding='utf-8') as f: f.write(json.dumps(content, ensure_ascii=False) + '\n') def main(offset): url = 'https://maoyan.com/board/4' html=get_one_page(url) for item in parse_one_page(html): print(item) write_to_file(item) if __name__ == '__main__': for i in range(10): main(offset=i * 10) time.sleep(1)

输出如下
网络爬虫——猫眼电影数据抓取——RE(正则表达式)_第2张图片

你可能感兴趣的:(网络爬虫)