小白学python-实战-爬取猫眼电影信息

这次我们来学习爬去猫眼电影前100名的电影

1.首先我们打开猫眼电影top100的网页:http://maoyan.com/board/4?

小白学python-实战-爬取猫眼电影信息_第1张图片

我们发现有offset=页数,来进行翻页


2.我们打开pycham编程软件,我们创建一个项目,然后新建一个文件sprider.py

小白学python-实战-爬取猫眼电影信息_第2张图片

import requests
from requests.exceptions import RequestException
import re
import json
#多线程,一秒完成数据的爬取
from multiprocessing import Pool

def get_one_page(url):
    try:
        response = requests.get(url)
        if response.status_code == 200:
            return response.text
        return None
    except RequestException:
        return None

def parse_one_page(html):
    pattern = re.compile('
.*?board-index.*?>(\d+).*?data-src="(.*?)".*?name">(.*?).*?star">(.*?)

.*?releasetime">(.*?)

' +'.*?integer">(.*?).*?fraction">(.*?).*?
',re.S) items = re.findall(pattern,html) for item in items: yield { 'index': item[0], 'image': item[1], 'title': item[2], 'actor': item[3].strip()[3:], 'time': item[4].strip()[5:], 'score': item[5]+item[6] } def write_to_file(content): with open('result.txt','a',encoding='utf-8') as f: f.write(json.dumps(content,ensure_ascii=False)+'\n') f.close() def main(offset): url = "http://maoyan.com/board/4?offset="+str(offset) html = get_one_page(url) for item in parse_one_page(html): print(item) write_to_file(item) if __name__=='__main__': # for i in range(10): # main(i*10) pool = Pool() pool.map(main,[i*10 for i in range(10)])

3.然后运行我们的项目,如图所示:

小白学python-实战-爬取猫眼电影信息_第3张图片

4.我们把爬取的数据保存到文本中

小白学python-实战-爬取猫眼电影信息_第4张图片

     猫眼电影的top100就这样被爬取下来了:

小白学python-实战-爬取猫眼电影信息_第5张图片


你可能感兴趣的:(其他学习)