python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)

 python3urllib.request库高级应用之ProxyHandler处理器_代理设置

使用代理IP,这是爬虫/反爬虫的第二大招,通常也是最好用的。

很多网站会检测某一段时间某个IP的访问次数(通过流量统计,系统日志等),如果访问次数多的不像正常人,它会禁止这个IP的访问。

所以我们可以设置一些代理服务器,每隔一段时间换一个代理,就算IP被禁止,依然可以换个IP继续爬取。

在urllib.request库中,通过ProxyHandler来设置使用代理服务器,下面通过例子来说明如何使用自定义opener来使用代理:

免费短期代理网站:西刺免费代理IP(http://www.xicidaili.com/)

python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第1张图片

python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第2张图片

免费短期代理网站分高匿和透明

【高匿】:代表服务器追踪不到你原来的IP;

【透明】:代表服务器可以追踪到你的代理IP和原来的IP;

类型表示支持的类型:HTTP或者HTTPS

【存活的时间】:表示在这个期间可用

 

例子一:单个代理IP

import urllib.request

 

url ="http://www.baidu.com/"

header={"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36"

}

# 构建了两个代理Handler,一个有代理IP,一个没有代理IP

httpproxy_handler = urllib.request.ProxyHandler({"http" : "61.135.217.7:80"})

nullproxy_handler = urllib.request.ProxyHandler({})

 

proxySwitch = True #定义一个代理开关

# 通过 urllib2.build_opener()方法使用这些代理Handler对象,创建自定义opener对象

# 根据代理开关是否打开,使用不同的代理模式

if proxySwitch:

    opener = urllib.request.build_opener(httpproxy_handler)

else:

    opener = urllib.request.build_opener(nullproxy_handler)

 

request = urllib.request.Request(url,headers=header)

 

# 1. 如果这么写,只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理。

response = opener.open(request)

 

# 2. 如果这么写,就是将opener应用到全局,之后所有的,不管是opener.open()还是urlopen() 发送请求,都将使用自定义代理。

# urllib2.install_opener(opener)

# response = urlopen(request)

print(response.read().decode('utf-8'))

 

运行结果:

 python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第3张图片

如果代理IP足够多,就可以像随机获取User-Agent一样,随机选择一个代理去访问网站。

例子二:代理IP列表随机抽取

import urllib.request

import random

url ="http://www.baidu.com/"

header={"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36"

}

proxy_list = [

    {"http" : "61.135.217.7:80"},

    {"http" : "111.155.116.245:8123"},

    {"http" : "122.114.31.177:808"},

]

# 随机选择一个代理

proxy = random.choice(proxy_list)

# 使用选择的代理构建代理处理器对象

httpproxy_handler = urllib.request.ProxyHandler(proxy)

opener = urllib.request.build_opener(httpproxy_handler)

request = urllib.request.Request(url,headers=header)

response = opener.open(request)

print(response.read().decode('utf-8'))

 

运行结果:

 python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第4张图片

备注:免费开放代理一般会有很多人都在使用,而且代理有寿命短,速度慢,匿名度不高,HTTP/HTTPS支持不稳定等缺点,所以,专业爬虫工程师或爬虫公司会使用高品质的私密代理,这些代理通常需要找专门的代理供应商购买,再通过用户名/密码授权使用。

例如:

快代理:https://www.kuaidaili.com

 python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第5张图片

python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第6张图片

python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第7张图片

这些专门的代理供应商提供的代理服务有多种,例如:私密代理、独享代理(购买形式多种:可以购买一天、包月、包年),独享代理价格比贵,适合于公司有这方面的需要才选择去购买独享代理,对于个人而言一般都是,一般都是选择独享代理。

 python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第8张图片

python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第9张图片

下面介绍用私密代理实现的一个例子:

 

import urllib.request

 

url ="http://www.baidu.com/"

header={"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36"

}

# 构建一个私密代理Handler,需要加上私密代理账户的用户名和密码

authproxy_handler=urllib.request.ProxyHandler({"http" :"username:[email protected]:80"})

opener = urllib.request.build_opener(authproxy_handler)

request = urllib.request.Request(url,headers=header)

response = opener.open(request)

print(response.read().decode('utf-8'))

 

备注:正常情况下,为了不暴露自己的代理账户和密码,代理的账户和密码,一般会提取出来,封装到其他模块,需要的时候再调用,或者使用os.environ.get()来读取和修改环境变量。

 

例子:自定义的python的环境变量类:

import os

class MyEnv:

 

  def __init__(self):

    self.envFile = "d:\\myenv.txt"

    self.envs = {}

 

  def SetEnvFile(self, filename) :

    self.envFile = filename

       

  def Save(self) :

    outf = open(self.envFile, "w")

    if not outf:

      print ("env file cannot be opened for write!")

    for k, v in self.envs.items() :

      outf.write(k + "=" + v + "\n")

    outf.close()

   

  def Load(self) :

    inf = open(self.envFile, "r")

    if not inf:

      print ("env file cannot be opened for open!")

    for line in inf.readlines() :

      k, v = line.split("=")

      self.envs[k] = v

    inf.close()

   

  def ClearAll(self) :

    self.envs.clear()

   

  def AddEnv(self, k, v) :

    self.envs[k] = v

   

  def RemoveEnv(self, k) :

    del self.envs[k]

   

  def PrintAll(self) :

    for k, v in self.envs.items():

      print ( k + "=" + v )

  

if __name__ == "__main__" :

  myEnv = MyEnv()

  myEnv.SetEnvFile("c:\\myenv.txt")

  myEnv.Load()

  myEnv.AddEnv("MYDIR", "d:\\mydir")

  myEnv.AddEnv("MYDIR2", "d:\\mydir2")

  myEnv.AddEnv("MYDIR3", "d:\\mydir3")

  myEnv.Save()

  myEnv.PrintAll()

运行结果:

 python3下urllib.request库高级应用之ProxyHandler处理器(代理设置)_第10张图片

使用os.environ来读取和修改环境变量:

import urllib.request

import os

username=os.environ.get("username")

password =os.environ.get("password")

print(username)

print(password)

url ="http://www.baidu.com/"

header={"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36"

}

# 构建一个私密代理Handler,需要加上私密代理账户的用户名和密码

authproxy_handler=urllib.request.ProxyHandler({"http" :username+':'+"[email protected]:80"})

opener = urllib.request.build_opener(authproxy_handler)

request = urllib.request.Request(url,headers=header)

response = opener.open(request)

print(response.read().decode('utf-8'))

 

转载于:https://www.cnblogs.com/tinghai8/p/9051513.html

你可能感兴趣的:(python,爬虫,操作系统)