Github: github.com/wangy8961/p… ,欢迎star
**爬虫系列: **
(1) 理论
- Python3爬虫系列01 (理论) - I/O Models 阻塞 非阻塞 同步 异步
- Python3爬虫系列02 (理论) - Python并发编程
- Python3爬虫系列06 (理论) - 可迭代对象、迭代器、生成器
- Python3爬虫系列07 (理论) - 协程
- Python3爬虫系列08 (理论) - 使用asyncio模块实现并发
(2) 实验
- Python3爬虫系列03 (实验) - 同步阻塞下载
- Python3爬虫系列04 (实验) - 多进程并发下载
- Python3爬虫系列05 (实验) - 多线程并发下载
- Python3爬虫系列09 (实验) - 使用asyncio+aiohttp并发下载
(3) 实战
- Python3爬虫系列10 (实战) - 爬取妹子图 第一弹
- Python3爬虫系列11 (实战) - 爬取妹子图 第二弹
1. 准备环境
1.1 安装CentOS
建议使用VMware安装一台CentOS-7.3虚拟机,请参考:www.madmalls.com/blog/post/c…
1.2 安装Python3
请参考:www.madmalls.com/blog/post/d…
1.3 安装MongoDB
请参考:www.madmalls.com/blog/post/d… ,如果是Windows请参考:www.madmalls.com/blog/post/w…
尝试使用
motor
实现MongoDB异步操作,好像效率更差一些,所以放弃使用该模块。目前数据库操作是同步阻塞型,使用pymongo
模块
1.4 安装Git
[root@CentOS ~]# yum -y install git
复制代码
代码已上传到 github.com/wangy8961/p… ,克隆代码:
[root@CentOS ~]# git clone https://github.com/wangy8961/python3-concurrency-pics-02.git
[root@CentOS ~]# cd python3-concurrency-pics-02/
复制代码
1.5 准备虚拟环境
如果你的操作系统是Linux
:
[root@CentOS python3-concurrency-pics-02]# python3 -m venv venv3
[root@CentOS python3-concurrency-pics-02]# source venv3/bin/activate
复制代码
Windows
激活虚拟环境的命令是:venv3\Scripts\activate
1.6 安装依赖包
如果你的操作系统是Linux
:
(venv3) [root@CentOS python3-concurrency-pics-02]# pip install -r requirements-linux.txt
复制代码
如果你的操作系统是Windows
(不会使用uvloop
):
(venv3) C:\Users\wangy> pip install -r requirements-win32.txt
复制代码
2. 分析过程
2.1 获取图集信息
使用requests
模块或aiohttp
模块来获取入口页面 www.mzitu.com/all/ 的HTML响应,然后通过BeautifulSoup4
和lxml
来解析HTML文档。每个图集
按年份/月份被放在下面的每个
图集标题
中。需要注意的是,早期图片需要访问 www.mzitu.com/old/ ,递归调用获取图集的函数即可
将获取的4000多个图集信息保存到MongoDB数据库的albums
集合中
访问 www.mzitu.com/all/ 和 www.mzitu.com/old/ ,共
2次
请求
2.2 获取包含图片的页面信息
每个图集下面的图片数量不相同,我们需要依次访问图集URL,通过分页导航栏
获取该图集下最大的图片数和它的发布时间,并在本地磁盘上创建按日期分类的目录,方便以后浏览图片
假设图集URL为 www.mzitu.com/56918 ,发现该图集下有47张图片,而且包含图片的页面URL也是有规律的,比如包含第1张图片的页面URL为 www.mzitu.com/56918/1
将每个图集下面的包含图片的页面信息保存到MongoDB数据库的image_pages
集合中
依次访问图集URL,共
4500多次
请求
2.3 获取图片的真实URL
我们通过访问每个包含图片的页面,获取每张图片的真实URL,并保存到MongoDB数据库的images
集合中
依次访问包含图片的页面URL,共
13万多次
请求*
2.4 下载图片
从MongoDB数据库的images
集合中获取所有图片的真实URL,依次下载并保存到本地
依次访问图片的真实URL,共
13万多次
请求
3. 使用
3.1 测试
由于图片有13万多张,所以测试的时候,你可以指定只下载100个图集来对比同步下载
、多线程下载
和异步下载
的效率区别,修改以下三个脚本中的TEST_NUM = 100
建议每次测试完,都删除相关目录:
(venv3) [root@CentOS python3-concurrency-pics-02]# rm -rf downloads/ logs/ __pycache__/
复制代码
删除数据库记录:
(venv3) [root@CentOS python3-concurrency-pics-02]# mongo
MongoDB shell version v3.6.6
connecting to: mongodb://127.0.0.1:27017
...
> show dbs
admin 0.000GB
config 0.000GB
local 0.000GB
mzitu 0.036GB
> use mzitu
switched to db mzitu
> db.dropDatabase()
{ "dropped" : "mzitu", "ok" : 1 }
> show dbs
admin 0.000GB
config 0.000GB
local 0.000GB
>
复制代码
(1) 依序下载
(venv3) [root@CentOS python3-concurrency-pics-02]# python sequential.py
复制代码
(2) 多线程下载
(venv3) [root@CentOS python3-concurrency-pics-02]# python threadpool.py
复制代码
(3) 异步下载
(venv3) [root@CentOS python3-concurrency-pics-02]# python asynchronous.py
复制代码
3.2 后台运行爬虫脚本
全站下载虽然只有13万多张图片,但章节分析过,总请求数差不多有30万次,所以耗时比较久,为防止不小心关闭Shell客户端而导致SSH断开,将使用screen
来将脚本运行为后台任务:
[root@CentOS ~]# yum -y install screen
[root@CentOS ~]# screen -dmS spider
[root@CentOS ~]# screen -r spider
[root@CentOS ~]# cd /root/python3-concurrency-pics-02
[root@CentOS python3-concurrency-pics-02]# source venv3/bin/activate
(venv3) [root@CentOS python3-concurrency-pics-02]# python asynchronous.py
复制代码
脚本运行的过程中,按Ctrl + A + D
即可将任务切换到后台运行,此时再关闭Shell客户端也没影响了。等待大约2小时后:
[root@CentOS ~]# screen -r spider
复制代码
即可查看下载的结果,如果有失败的请求,很正常,再次执行脚本即可
(venv3) [root@CentOS python3-concurrency-pics-02]# ls -lR downloads/ | grep '^-' | wc -l
138217
(venv3) [root@CentOS python3-concurrency-pics-02]# du -sh downloads/
16G downloads/
复制代码
3.3 定时任务自动每日更新
[root@CentOS ~]# crontab -e
执行上述命令后,将打开vim编辑器,新增如下两行内容:
# 爬取 www.mzitu.com 美女图片
30 23 * * * /usr/bin/python3 /root/python3-concurrency-pics-02/asynchronous.py
复制代码
将在每天晚上23:30分自动执行爬虫脚本,查看cron
定时任务是否执行:
[root@CentOS ~]# tail -f /var/log/cron
Aug 27 23:30:01 CentOS CROND[6256]: (root) CMD (/usr/bin/python3 /root/python3-concurrency-pics-02/asynchronous.py)
Aug 27 23:30:01 CentOS CROND[6257]: (root) CMD (/usr/lib64/sa/sa1 1 1)
复制代码
更多cron
知识请参考:www.madmalls.com/blog/post/h…