Python + wGet 合璧,一键下载网页上所有的PDF

背景介绍:在Python方面,我是一名不折不扣的菜鸟。在Linux方面,算是懂些皮毛。就这么一个知识水平,还搞懂了一件事情。说明什么呢?不是运气好,而是证明“ 学习,只要带着强烈的目标,终有收获。”


用过三种wGet:

三种wGet

其中Office2016所带的wget,和WSUS所带的wget,均能在Windows的命令行下正常执行。唯独用cygWin编译后的,若离开cygwin,则报错不断:

Python + wGet 合璧,一键下载网页上所有的PDF_第1张图片

何必对着干?那就还是回到cygwin目录下吧。

本次的实验页面是:http://toolkit.globus.org/toolkit/docs/latest-stable/gram5/#gram5,它有N多个PDF文档,俺想把它Down下来。所以首先就要请出Python抓取所有的PDF:

# -*- coding: utf-8 -*-

import urllib
import re
url = "http://toolkit.globus.org/toolkit/docs/latest-stable/gram5/#gram5"
html = urllib.urlopen(url).read()
urllib.urlopen(url).close()

f = open ("D:\\alla.txt","w")

allpdflink = re.findall(r'
临时使用,所以没有做函数化或者封装神马的。该程序运行后,会在D盘建立一个文本文件(alla.txt)。然后回到刚才的cygwin目录下,在CMD窗口敲入:

f:wget.exe  -B http://toolkit.globus.org/toolkit/docs/latest-stable/gram5/#gram5 -i d:\alla.txt

参数解释:-B(必须大写,否则就成为后台下载了)从基准URL里面调整前缀。本例中就是那个网页。

-i 要下载的URL地址从后面的文件名中导入。

经测试,该方法对目标网站的其它网页也均有效,例如:http://toolkit.globus.org/toolkit/docs/latest-stable/gsic/#gsic


你可能感兴趣的:(浏览器)