下面我们再来看看 urllib 模块提供的 urlretrieve() 函数。urlretrieve() 方法直接将远程数据下载到本地。
1 |
>>> help (urllib.urlretrieve) |
2 |
Help on function urlretrieve in module urllib: |
3 |
4 |
urlretrieve(url, filename = None , reporthook = None , data = None ) |
下面通过例子来演示一下这个方法的使用,这个例子将 google 的 html 抓取到本地,保存在 D:/google.html 文件中,同时显示下载的进度。
01 |
import urllib |
02 |
def cbk(a, b, c): |
03 |
'''回调函数 |
04 |
@a: 已经下载的数据块 |
05 |
@b: 数据块的大小 |
06 |
@c: 远程文件的大小 |
07 |
''' |
08 |
per = 100.0 * a * b / c |
09 |
if per > 100 : |
10 |
per = 100 |
11 |
print '%.2f%%' % per |
12 |
|
13 |
url = 'http://www.google.com' |
14 |
local = 'd://google.html' |
15 |
urllib.urlretrieve(url, local, cbk) |
在 Python Shell 里执行如下:
01 |
Python 2.7 . 5 (default, May 15 2013 , 22 : 44 : 16 ) [MSC v. 1500 64 bit (AMD64)] on win32 |
02 |
Type "copyright" , "credits" or "license()" for more information. |
03 |
>>> import urllib |
04 |
>>> def cbk(a, b, c): |
05 |
'''回调函数 |
06 |
@a: 已经下载的数据块 |
07 |
@b: 数据块的大小 |
08 |
@c: 远程文件的大小 |
09 |
''' |
10 |
per = 100.0 * a * b / c |
11 |
if per > 100 : |
12 |
per = 100 |
13 |
print '%.2f%%' % per |
14 |
15 |
|
16 |
>>> url = 'http://www.google.com' |
17 |
>>> local = 'd://google.html' |
18 |
>>> urllib.urlretrieve(url, local, cbk) |
19 |
- 0.00 % |
20 |
- 819200.00 % |
21 |
- 1638400.00 % |
22 |
- 2457600.00 % |
23 |
( 'd://google.html' , |
24 |
>>> |
下面是 urlretrieve() 下载文件实例,可以显示下载进度。
01 |
#!/usr/bin/python |
02 |
#encoding:utf-8 |
03 |
import urllib |
04 |
import os |
05 |
def Schedule(a,b,c): |
06 |
''''' |
07 |
a:已经下载的数据块 |
08 |
b:数据块的大小 |
09 |
c:远程文件的大小 |
10 |
''' |
11 |
per = 100.0 * a * b / c |
12 |
if per > 100 : |
13 |
per = 100 |
14 |
print '%.2f%%' % per |
15 |
url = 'http://www.python.org/ftp/python/2.7.5/Python-2.7.5.tar.bz2' |
16 |
#local = url.split('/')[-1] |
17 |
local = os.path.join( '/data/software' , 'Python-2.7.5.tar.bz2' ) |
18 |
urllib.urlretrieve(url,local,Schedule) |
19 |
######output###### |
20 |
#0.00% |
21 |
#0.07% |
22 |
#0.13% |
23 |
#0.20% |
24 |
#.... |
25 |
#99.94% |
26 |
#100.00% |
通过上面的练习可以知道,urlopen() 可以轻松获取远端 html 页面信息,然后通过 python 正则对所需要的数据进行分析,匹配出想要用的数据,在利用urlretrieve() 将数据下载到本地。对于访问受限或者对连接数有限制的远程 url 地址可以采用 proxies(代理的方式)连接,如果远程数据量过大,单线程下载太慢的话可以采用多线程下载,这个就是传说中的爬虫。
#爬去百度贴吧某图片
#爬取百度贴吧一些小图片
#urllib.urlretriev---将远程数据下载到本地
import urllib
import urllib2
import re
#http://tieba.baidu.com/p/3868127254
a = raw_input('inpt url:')
s = urllib2.urlopen(a)
s1 = s.read()
def getimg(aaa):
reg = re.compile(r'img.src="(.*?)"')
#reg = re.compile(r'')
l = re.findall(reg, aaa)
tmp =0
for x in l:
tmp += 1
urllib.urlretrieve(x, '%s.jpg' % tmp)
#print s1
getimg(s1)