数据爬虫原理及实例

一、概念
网络爬虫又被称为网络蜘蛛,是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。
爬虫是请求湾站提供数据的自动化程序。

二、基本流程
通过HTTP库向目标站点发起请求Request,等待服务器响应–>服务器响应,得到Response,获取页面内容–>利用网络解析库进行解析–>保存数据

三、Request和Response
1、Request
请求方式:有GET、POST、HEAD、PUT、DELETE、OPTIONS类型
请求URL:URL全称统一资源定位符
请求头:包含请求时的User-Agent、Host、Cookies等头部信息
请求体:请求时额外携带的数据如表单提交时的表单数据
2、Response
响应状态:有200代表成功、301跳转、404找不到页面、502服务器错误等多种响应状态
响应头:内容类型、内容长度、服务器信息、设置Cookie等。
响应体:包含了请求资源的网页HTML、图片二进制数据等内容

四、一个简单的爬虫实例
从百度贴吧上获取图片。下载图片的步骤主要有
获取网页html文本内容–>分析html中图片的html标签特征,用正则解析出所有的图片url链接列表–>根据图片的url链接列表将图片下载到本地文件夹中

代码如下:

#coding:utf-8
import urllib
import re

根据url获取网页html内容

def getHtmlContent(url):
page = urllib.urlopen(url)
return page.read()

从html中解析出所有jpg图片的url,html中jpg图片的url格式为:

def getJPGs(html):
# 解析jpg图片url的正则
jpgReg = re.compile(r’ # 解析出jpg的url列表
jpgs = re.findall(jpgReg,html)
return jpgs

用图片url下载图片并保存成制定文件名

def downloadJPG(imgUrl,fileName):
urllib.urlretrieve(imgUrl,fileName)

批量下载图片,默认保存到当前目录下

def batchDownloadJPGs(imgUrls,path = ‘D:/image/’):
# 用于给图片命名
count = 1
for url in imgUrls:
downloadJPG(url,’’.join([path,’{0}.jpg’.format(count)]))
count = count + 1

封装:从网页下载图片

def download(url):
html = getHtmlContent(url)
jpgs = getJPGs(html)
batchDownloadJPGs(jpgs)
def main():
url = ‘网址’
download(url)
if name == ‘main’:
main()

你可能感兴趣的:(数据爬虫原理及实例)