urllib.response 使用代理访问网页

缘由:使用网络爬虫的时候,网站会拒绝某些IP的访问,这是可以使用代理。
urllib.response可以使用多种访问方式。
1.本文使用直接的访问方式
2.在网络上可以找到很多免费代理

#!/user/bin/evn python
# coding=utf-8
__author__ = 'phc'

import urllib.request  # 在python 3 .x中,urllib2被更改为urllib.request
import sys
import re


class testproxy(object):
    '''这个类的作用是测试proxy是否有效'''
    def __init__(self, proxy):
        self.proxy = proxy
        self.checkproxyformat(self.proxy)
        self.url = 'http://www.baidu.com'
        self.timeout = 5
        self.flagWord = '百度'  # key word
        self.useProxy(self.proxy)

    def checkproxyformat(self, proxy):
        try:
            proxyMatch = re.compile('http[s]?://[\d]{1,3}\.[\d]{1,3}\.[\d]{1,3}\.[\d]{1,3}:[\d]{1,5}$')
            re.search(proxyMatch, proxy).group()
        except AttributeError:
            tipuse()
            exit()
        flag = 1
        proxy = proxy.replace('//', '')
        try:
            protocol = proxy.split(':')[0]
            ip = proxy.split(':')[1]
            port = proxy.split(':')[2]
        except IndexError:
            print(u'下标越界')
            tipuse()
            exit()
        flag = flag and len(proxy.split(':')) == 3 and len(ip.split('.')) == 4

        flag = ip.split('.')[0] in map(str, range(1, 256)) and flag
        flag = ip.split('.')[1] in map(str, range(256)) and flag
        flag = ip.split('.')[2] in map(str, range(256)) and flag
        flag = ip.split('.')[3] in map(str, range(1, 256)) and flag
        flag = protocol in [u'http', u'https'] and flag
        flag = port in map(str, range(1, 65535)) and flag
        '''这里是检查proxy的格式'''
        if flag:
            print(u'输入的http代理服务器符合标准')
        else:
            tipuse()
            exit()

    def useProxy(self, proxy):
        '''利用代理访问百度,并查找关键词'''
        protocol = proxy.split('//')[0].replace(':', '')
        ip = proxy.split('//')[1]
        opener = urllib.request.build_opener(urllib.request.ProxyHandler({protocol: ip}))
        urllib.request.install_opener(opener)
        try:
            response = urllib.request.urlopen(self.url, timeout=self.timeout)
        except:
            print(u'连接错误,退出程序')
            exit()
        str = response.read()
        str = str.decode('utf-8')  # python3《《《--------3.x以前的版本不使用,3.x版本需要使用,否则会报错(作用:把字符串转换为bytes类型)
        if re.search(self.flagWord, str):
            print(u'已取得特征词,该代理可用')
        else:
            print(u'该代理不可用')


def tipuse():
    '''显示提示信息'''
    print(u'该程序只能输入一个参数,这个参数必须是一个可用的proxy')
    print(u'usage: python baisc.py http://1.2.3.4.5')
    print(u'usage: python baisc.py https://1.2.3.4.5')


def testargument():
    '''测试输入参数,只需要一个参数'''
    lens = len(sys.argv)
    if lens != 2:
        print(u'只需要一个参数就够了')
        tipuse()
        exit()
    else:
        TP = testproxy(sys.argv[1])


def testargv():
    lens = len(sys.argv)
    print("len = ", lens)
    print("aruv[0] = ", sys.argv[0])
    print("argv[1] = ", sys.argv[1])


if __name__ == '__main__':
    testargument()
    pass
# python basic.py http:192.168.1.2:80

1.对python来说,任何一个程序可以是其他程序的一个单独模块,所以,本程序可以用来检测用户的proxy是否可用
2.什么是sys和sys.argv是什么?
连接:sys.argv是什么? - 7sDream的回答 - 知乎
https://www.zhihu.com/question/23711222/answer/26173004

你可能感兴趣的:(urllib.response 使用代理访问网页)