在diveintopython网站上,http://diveintopython.org/html_processing/extracting_data.html可以找到一些html处理的例子,比如这个类可以用来获取html页面中的href标签内容。

from sgmllib import SGMLParser
class URLLister(SGMLParser):
def reset(self):
SGMLParser.reset(self)
self.urls = []
def start_a(self, attrs):
href = [v for k, v in attrs if k=='href']
if href:
self.urls.extend(href)
将这个文件href的地方都改成src,start_a改成start_img
即:
from sgmllib import SGMLParserclass URLLister(SGMLParser):
    def reset(self):                             
        SGMLParser.reset(self)
        self.urls = []    def start_img(self, attrs):                    
        src = [v for k, v in attrs if k=='src']
        if src:
            self.urls.extend(src)
保存代码内容为urllister.py文件,放在python安装目录即可,这样就可以用来分析网页的图片地址了。
下面为图片下载的程序内容
import urllib2
import urllib
import os
import urllister
# 这是来自 http://diveintopython.org/html_processing/extracting_data.html#dialect.extract.urllib的一个分析html页面的类
p_w_picpathpath=[]

#cd 函数用于判断路径是否正确,如正确则改变当前工作路径
def cd(ss):
    try:
        os.chdir(ss)
        print '改变工作目录为'+ss
        return 0
    except:
        print '输入图片保存路径有误,请重新输入'
        return 1
#addp_w_picpathpath,该函数将图片路径添加到p_w_picpathpath这个list中
def addp_w_picpathpath(surl):
    if 'http://' in surl
        p_w_picpathpath.append(surl)
        print '找到图片:'+surl.split('/')[-1]+'图片地址为:'+surl
    else:
         surl=str_url+surl
        p_w_picpathpath.append(surl)
        print '找到图片:'+surl.split('/')[-1]+'图片地址为:'+surl

#download p_w_picpaths
def p_w_picpath_down(list_p_w_picpath):
    if not list_p_w_picpath:
        print "该页面没有任何图片"
    else:
        for p_w_picpath in list_p_w_picpath:
            try:
                urllib.urlretrieve(p_w_picpath,p_w_picpath.split('/')[-1]) #利用p_w_picpath.split('/')[-1]获得文件名
                print "来自"+p_w_picpath+"的图片保存成功!"
            except:
                print "来自"+p_w_picpath+"图片没有保存成功,继续保存下一张图片...."

print "请输入网页的url地址:"
str_url=raw_input()

print "请输入图片保存地址,如果直接回车将默认保存到我的文档"

temp=1
while temp:
    str_save=raw_input()
    if not str_save:
        str_save='E:\Fei_Doc'
    temp=cd(str_save)
try:
    sock=urllib2.urlopen(str_url)
    print "页面连接成功!开始获取图片地址……"
except:
    print "sorry,输入的地址有误或页面无法连接,程序将自动退出"

parser=urllister.URLLister()
parser.feed(sock.read())
sock.close()
parser.close()
for url in parser.urls:
    addp_w_picpathpath(url)
#调用图片下载函数
p_w_picpath_down(p_w_picpathpath)

#程序结束
尽管这个程序能基本上解决问题,不过我发现有一些不足:
1、如果页面的img标签后面没有直接跟src属性,比如复杂一点的img代码:
按此在新窗口浏览图片

那么urllister便无法识别了。不过这个问题解决起来比较容易,直接对html代码每行代码进行分析,利用split('src'),可以得到所有src标签的内容,然后根据后缀是否为jpg,gif等得到图片文件地址。

2、上面的程序只是对地址为http开始的图片以及当前url下面目录的图片进行处理,如果src里面的内容以“../p_w_picpaths“ 或者 “/“开头,则需另外处理。