【python】半佛老师的表情包是怎么爬的?

背景

听半佛老师说他的表情包是爬的,有点好奇是怎么爬的?由此有了这篇文章。

我调研了几个表情包的网站,最后以斗图网为例https://www.doutula.com/photo/list/爬取网站上的表情图片。

为了简单,用python +Scrapy去做。

环境

Python3 + Scrapy(1.6.0)+ urllib + BeautifulSoup

如果没有Scrapy包,pip3 install Scrapy即可。

参考:https://docs.scrapy.org/en/latest/intro/tutorial.html

步骤

1.创建scrapy项目

# 最后一个是项目路径,会创建一个同名项目
scrapy startproject scrapy_test

命令创建项目,就像一些脚手架一样生成一个项目组织路径。会生成一个cfg文件,和一个同名scrapy_test路径,路径下有一个spiders路径,爬取的逻辑就在这个路径下写一个新类,实现scrpy.Spider的方法,此处新建了img_spider.py,逻辑怎么实现呢?向下看~

【python】半佛老师的表情包是怎么爬的?_第1张图片

2.Spider爬取逻辑

  1. 指定名称name,后续启动要用
  2. 重写start_tequests,爬取指定地址,指定回调函数
  3. 重写回调函数parse,解析http响应,提取img标签中的图片路径,使用urllib http请求图片路径,并写入本地文件。
import os
import urllib

import scrapy
from bs4 import BeautifulSoup


class QuotesSpider(scrapy.Spider):
    name = "images"

    # 发送http请求
    def start_requests(self):
        urls = [
            'https://www.doutula.com/photo/list/'
        ]
        for url in urls:
            yield scrapy.Request(url=url, callback=self.parse)  # 回调解析函数

    # 解析http响应,
    def parse(self, response):
        print(response)
        soup = BeautifulSoup(response.body, 'html.parser')
        path = "./result/"
        os.makedirs(path)       #创建多级目录
        # 解析html标签,获取img标签
        tags = soup('img')
        for tag in tags:
            url = tag.get('data-original', None)    #调研了网站,图片路径放在这个属性里
            print(url)

            if url != None:
                arr = url.split(sep='/')
                imgNm = arr[len(arr) - 1]           # 获取文件名称
                img = urllib.request.urlopen(url)   # 获取图片
                # output
                fhand = open(path+imgNm, 'wb')        # 打开本地文件
                size = 0
                # 分次拷贝
                while True:
                    info = img.read(100000)
                    if len(info) < 1: break
                    size = size + len(info)
                    fhand.write(info)       # 防止一次性内存过大,分批写入到本地
                print(size, 'characters copied.')
                fhand.close()

3.启动scrapy

 scrapy crawl images 

启动抓取后,跑一会儿就会发现成功啦,当前路径下创建了个result路径,切图片已经写入到这个路径下了~

【python】半佛老师的表情包是怎么爬的?_第2张图片

4.展望

其实这个网站是分页展示的,后续可以优化下,这样可以将所有页的图片都下载下来。

由于这个网站有3500+页,这篇仅是最简单的小demo,暂时就不做了,其实最简单实现方案就是urls数组增加带页号的url,如https://www.doutula.com/photo/list/?page=2。

你可能感兴趣的:(通信)