Python 实用爬虫-使用 BeautifulSoup 去水印下载 CSDN 博客图片

Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片

其实没太大用,就是方便一些,因为现在各个平台之间的图片都不能共享,比如说在 CSDN 不能用的图片,在博客园不能用 CSDN 的图片。
当前想到的方案就是:先把 CSDN 上的图片都下载下来,再手动更新吧。
所以简单写了一个爬虫用来下载 CSDN 平台上的图片,用于在其他平台上更新图片时用

更多内容,请看代码注释

效果演示

Python 实用爬虫-使用 BeautifulSoup 去水印下载 CSDN 博客图片_第1张图片
QQ截图20190616000216.png
Python 实用爬虫-使用 BeautifulSoup 去水印下载 CSDN 博客图片_第2张图片
QQ截图20190616000228.png

Python 源代码

提示: 需要先下载 BeautifulSoup 哦,可以用 pip,也可以直接在 PyCharm 中安装
简单的方法:

Python 实用爬虫-使用 BeautifulSoup 去水印下载 CSDN 博客图片_第3张图片
QQ截图20190616000203.png
# coding:utf-8
'''
使用爬虫下载图片:
1.使用 CSDN 博客
2.获取图片连接,并下载图片
3.可去除水印

作者:java997.com
'''

import re
from urllib import request
from bs4 import BeautifulSoup
import datetime


# 构造无水印纯链接数组
def get_url_array(all_img_href):
    img_urls = []
    for h in all_img_href:
        # 去掉水印
        if re.findall("(.*?)\?", h[1]):
            h = re.findall("(.*?)\?", h[1])
            # 因为这里匹配就只有 src 了, 所以直接用 0
            img_urls.append(h[0])
        else:
            # 因为这里还没有处理有 alt 的情况, 所以直接用 1
            img_urls.append(h[1])

    return img_urls


# 构建新目录的方法
def mkdir(path):
    # 引入模块
    import os

    # 去除首位空格
    path = path.strip()
    # 去除尾部 \ 符号
    path = path.rstrip("\\")

    # 判断路径是否存在
    # 存在     True
    # 不存在   False
    isExists = os.path.exists(path)

    # 判断结果
    if not isExists:
        # 如果不存在则创建目录
        # 创建目录操作函数
        os.makedirs(path)

        print('目录 ' + path + ' 创建成功')
        return True
    else:
        # 如果目录存在则不创建,并提示目录已存在
        print('目录 ' + path + ' 已存在')
        return False


if __name__ == '__main__':

    # url = input("请粘贴博客链接")
    url = "https://blog.csdn.net/qq_40147863/article/details/90484190"

    # 获取页面 html
    rsp = request.urlopen(url)
    all_html = rsp.read()

    # 一锅清汤
    soup = BeautifulSoup(all_html, 'lxml')

    # bs 自动解码
    content = soup.prettify()

    # 获取标题
    tags = soup.find_all(name='title')
    for i in tags:
        # .string 是去掉标签, 只打印内容
        print(i.string)

    # 获取正文部分
    article = soup.find_all(name='article')
    # print(article[0])

    # 获取图片的链接
    all_img_href = re.findall('

你可能感兴趣的:(Python 实用爬虫-使用 BeautifulSoup 去水印下载 CSDN 博客图片)