Python爬虫项目--批量下载小姐姐壁纸

前言

嗨喽,大家好呀~这里是爱看美女的茜茜呐

又到了学Python时刻~

你还在为一个一个下载壁纸而烦恼吗,那有没有更加简单的方法呢?

跟着我,一起来看看我是如何批量下载的吧

环境使用:

  • python3.8 | Anaconda

  • pycharm

相关模块:

  • requests >>> pip install requests

  • parsel

模块安装方法:win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名, 回车

插 件:

xpath helper扩展工具包

安装步骤:先获取xpath helper扩展工具包(注意:不要解压)

》》 打开Google浏览器 --> 更多工具 --> 扩展程序 --> 打开开发者模式 --> 把xpath helper扩展工具包直接拖入 --> 刷新

使用方法:快捷键 ctrl+shift+X

基本思路

1.网页的图片怎么来的?

写代码(爬虫): 网页源代码 浏览器 --> 解析数据

第一页 --> 41页

  1. 发送请求

  2. 响应数据

  3. 解析数据 图片

  4. 保存数据

代码

import requests   # 需要下载   知道  1   不知道 2  pip install requests  win+R  --> cmd
import re  # 正则   不需要下载
import parsel  #数据解析  需要下载
# 伪装
headers = {
    # 用户代理  浏览器基本的身份信息
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
# 发送请求  response数据请求状态
response = requests.get(url,headers)
# print  打印输出    响应对象   200 状态码  成功
print(response)
"""
2.响应数据    网页源代码
"""
# print(response.text)
"""
3.解析数据   图片  re
"""
# .*?  精准查找
re_data = re.findall('(.*?)',response.text)
print(re_data)
# for循环
for link,title in re_data:
    # print(link)
    response_1 = requests.get(link, headers).text
        # print(response_1)
    # 解析数据  标签详情页
    selector = parsel.Selector(response_1)
    # css:定位 img_url 图片链接
    img_url = selector.css('.entry-content img::attr(src)').getall()
    # print(img_url)
    for img in img_url:
        print(img)
        img_name = img.split('/')[-1]
        # content  二进制
        content = requests.get(img,headers).content
        """
        4.保存数据
        """
        with open('img\\'+ img_name, mode='wb') as file:
            file.write(content)

尾语

感谢你观看我的文章呐~本次航班到这里就结束啦

希望本篇文章有对你带来帮助 ,有学习到一点知识~

躲起来的星星也在努力发光,你也要努力加油(让我们一起努力叭)。

最后,博主要一下你们的三连呀(点赞、评论、收藏),不要钱的还是可以搞一搞的嘛~

不知道评论啥的,即使扣个6666也是对博主的鼓舞吖 感谢

你可能感兴趣的:(Python爬虫项目--批量下载小姐姐壁纸)