可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看如何使用python来实现这样一个功能。
1.获取整个页面内容
#coding=utf-8 import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html html = getHtml("http://tieba.baidu.com/p/2958181237") print html
Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。首先,我们定义了一个getHtml()函数;urllib.urlopen()方法用于打开一个URL地址;read()方法用于读取URL上的数据,向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。
2.选择页面中需要的数据
这里需要了解一下正则表达式的知识了。我们可以在指定网页中按F12,找到了图片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”
import re import urllib def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) return imglist html = getHtml("http://tieba.baidu.com/p/2958181237") print getImg(html)
我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片链接。re模块主要包含了正则表达式:re.compile() 可以把正则表达式编译成一个正则表达式对象。re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。运行脚本将得到整个页面中包含图片的URL地址。效果如图:
实际获取情况为:
3.将选择的数据保存到本地
把筛选的图片地址通过for循环遍历并保存到本地:
#coding=utf-8 import urllib import re def getHtml(url): page = urllib.urlopen(url) html = page.read() return html def getImg(html): reg = r'src="(.+?\.jpg)" pic_ext' imgre = re.compile(reg) imglist = re.findall(imgre,html) x = 0 for imgurl in imglist: urllib.urlretrieve(imgurl,'%s.jpg' % x) x+=1 html = getHtml("http://tieba.baidu.com/p/2958181237") print getImg(html)
这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。程序运行完成,将在目录下看到下载到本地的文件。(以下是在ubuntu下的操作,在window下貌似不能获取图片)