网络爬虫

使用第三方模块快速抓取与解析:

https://jecvay.com/2015/02/python3-web-bug-series5.html

1.Python 3开发网络爬虫(一)

1.1 抓取指定页面

•#encoding:UTF-8

•importurllib.request

•url ="http://www.baidu.com"

•data= urllib.request.urlopen(url).read()

•data= data.decode('UTF-8')

•print(data)

•解析:urlopen()函数,这个函数返回一个http.client.HTTPResponse对象:

•urllib.request.urlopen(url,

data=None, [timeout, ]*,cafile=None,capath=None,cadefault=False)

[if ppt]•[endif]

•>>>a = urllib.request.urlopen(full_url)>>> type(a)

'http.client.HTTPResponse'>

•>>>a.geturl() # 'http://www.baidu.com/s?word=Jecvay'

•>>>a.info() #

•>>>a.getcode()  # 200


1.2 简单处理URL

•importurllib

•importurllib.request

•data={}

•data['word']='JecvayNotes'

•url_values=urllib.parse.urlencode(data)

•url="http://www.baidu.com/s?"

•full_url=url+url_values

•data=urllib.request.urlopen(full_url).read()

•data=data.decode('UTF-8')

•print(data)

•解析:字典data转换为'word=Jecvay+Notes'的字符串

•urllib.parse.urlencode(query,

doseq=False, safe='', encoding=None, errors=None)

•urllib.parse.quote_plus(string,

safe='', encoding=None, errors=None)


2. https://jecvay.com/2014/09/python3-web-bug-series2.html


3.https://jecvay.com/2014/09/python3-web-bug-series3.html

3.1添加超时跳过功能

首先, 我简单地将

urlop = urllib.request.urlopen(url)

改为

urlop = urllib.request.urlopen(url, timeout = 2)

运行后发现, 当发生超时, 程序因为exception中断. 于是我把这一句也放在try .. except 结构里, 问题解决.

3.2 支持自动跳转

在爬 http://baidu.com 的时候, 爬回来一个没有什么内容的东西, 这个东西告诉我们应该跳转到 http://www.baidu.com . 但是我们的爬虫并不支持自动跳转, 现在我们来加上这个功能, 让爬虫在爬 baidu.com 的时候能够抓取 www.baidu.com 的内容.

首先我们要知道爬 http://baidu.com 的时候他返回的页面是怎么样的, 这个我们既可以用 Fiddler 看, 也可以写一个小爬虫来抓取. 这里我抓到的内容如下, 你也应该尝试一下写几行 python 来抓一抓.

3.3伪装浏览器

HTTP 报文分两种:请求报文响应报文

请求报文的请求行首部行

GET,POST, HEAD, PUT, DELETE 方法

我用 IE 浏览器访问百度首页的时候, 浏览器发出去的请求报文如下:

GET http://www.baidu.com/ HTTP/1.1

Accept: text/html, application/xhtml+xml, */*

Accept-Language: en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3

User-Agent: Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko

Accept-Encoding: gzip, deflate

Host: www.baidu.com

DNT: 1

Connection: Keep-Alive

Cookie: BAIDUID=57F4D171573A6B88A68789EF5DDFE87:FG=1; uc_login_unique=ccba6e8d978872d57c7654130e714abd; BD_UPN=11263145; BD

然后百度收到这个消息后, 返回给我的的响应报文如下(有删节):

HTTP/1.1 200 OK

Date: Mon, 29 Sep 2014 13:07:01 GMT

Content-Type: text/html; charset=utf-8

Connection: Keep-Alive

Vary: Accept-Encoding

Cache-Control: private

Cxy_all: baidu+8b13ba5a7289a37fb380e0324ad688e7

Expires: Mon, 29 Sep 2014 13:06:21 GMT

X-Powered-By: HPHP

Server: BWS/1.1

BDPAGETYPE: 1

BDQID: 0x8d15bb610001fe79

BDUSERID: 0

Set-Cookie: BDSVRTM=0; path=/

Set-Cookie: BD_HOME=0; path=/

Content-Length: 80137

百度一下,你就知道 ..........这里省略两万字................ 在 GET 的时候添加 header 有很多方法, 下面介绍两种方法.

第一种方法比较简便直接, 但是不好扩展功能, 代码如下:

import urllib.request

url='http://www.baidu.com/'

req=urllib.request.Request(url,headers={

'Connection':'Keep-Alive',

'Accept':'text/html, application/xhtml+xml, */*',

'Accept-Language':'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3',

'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko'

})

oper=urllib.request.urlopen(req)

data=oper.read()

print(data.decode())

第二种方法使用了 build_opener 这个方法, 用来自定义 opener, 这种方法的好处是可以方便的拓展功能, 例如下面的代码就拓展了自动处理 Cookies 的功能.

import urllib.request

import http.cookiejar

# head: dict of header

defmakeMyOpener(head={

'Connection':'Keep-Alive',

'Accept':'text/html, application/xhtml+xml, */*',

'Accept-Language':'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3',

'User-Agent':'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko'

}):

cj=http.cookiejar.CookieJar()

opener=urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))

header=[]

forkey,valueinhead.items():

elem=(key,value)

header.append(elem)

opener.addheaders=header

returnopener

oper=makeMyOpener()

uop=oper.open('http://www.baidu.com/',timeout=1000)

data=uop.read()

print(data.decode())

上述代码运行后通过 Fiddler 抓到的 GET 报文如下所示:

GET http://www.baidu.com/ HTTP/1.1

Accept-Encoding: identity

Connection: close

Host: www.baidu.com

User-Agent: Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko

Accept: text/html, application/xhtml+xml, */*

Accept-Language: en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3

3.4保存抓回来的报文

顺便说说文件操作. Python 的文件操作还是相当方便的. 我们可以讲抓回来的数据 data 以二进制形式保存, 也可以经过 decode() 处理成为字符串后以文本形式保存. 改动一下打开文件的方式就能用不同的姿势保存文件了. 下面是参考代码:

defsaveFile(data):

save_path='D:\temp.out'

f_obj=open(save_path,'wb')# wb 表示打开方式

f_obj.write(data)

f_obj.close()

# 这里省略爬虫代码

# ...

# 爬到的数据放到 dat 变量里

# 将 dat 变量保存到 D 盘下

saveFile(dat)


4.https://jecvay.com/2014/10/python3-web-bug-series4.html#more-372


5.使用第三方模块快速抓取与解析

https://jecvay.com/2015/02/python3-web-bug-series5.html

你可能感兴趣的:(网络爬虫)