Python 爬虫:requests 和 selenium 伪装 headers 和代理应对反爬机制

  • 目录
    • [1、requests 伪装 headers 发送请求]
    • [2、selenium 模拟使用浏览器伪装 headers]
    • [3、requests 使用 ip 代理发送请求]
    • [4、selenium webdriver 使用代理 ip]

在编写爬虫的过程中,有些网站会设置反爬机制,对于非浏览器的访问拒绝响应;或短时间频繁爬取会触发网站的反爬机制,导致 ip 被封无法爬取网页。这就需要在爬虫程序中修改请求的 headers 伪装浏览器访问,或者使用代理发起请求。从而绕开网站的反爬机制获取正确的页面。

本文使用 python3.6,常用的请求库 requests 以及自动化测试库 selenium 使用浏览器。 关于这两个库的使用请参考官方文档或本人另一篇博客: [python 爬虫获取网页 html 内容以及下载附件的方法]。

1、requests 伪装 headers 发送请求

requests 发送的请求所带的请求头中 User-Agent 会标识为 python 程序发送的请求,如下所示:

import requests

url = 'https://httpbin.org/headers'

response = requests.get(url)

if response.status_code == 200:
    print(response.text)

返回结果:

{
  "headers": {
    "Accept": "*/*", 
    "Accept-Encoding": "gzip, deflate", 
    "Host": "httpbin.org", 
    "User-Agent": "python-requests/2.20.1"
  }
}

注:[https://httpbin.org]是一个开源的,用于测试网页请求的网站,比如上面的/headers的链接,将会返回所发送请求的请求头。详情请参考其官网。

User-Agent: 用户代理(英语:User Agent)指的是代表用户行为的软件代理程序所提供的对自己的一个标识符。用于标识浏览器类型及版本、操作系统及版本、浏览器内核、等信息的标识。详情见维基百科词条:[User agent]

对于有反爬的网站会识别其 headers 从而拒绝返回正确的网页。此时需要对发送的请求伪装成浏览器的 headers。

用浏览器打开 https://httpbin.org/headers 网站,将会看的下面的页面,这就是该浏览器的 headers。

Python 爬虫:requests 和 selenium 伪装 headers 和代理应对反爬机制_第1张图片

将上面的请求头复制下来,传给 requests.get() 函数,即可将请求伪装成浏览器。

import requests

url = 'https://httpbin.org/headers'

myheaders = {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
    "Accept-Encoding": "br, gzip, deflate",
    "Accept-Language": "zh-cn",
    "Host": "httpbin.org",
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"
  }

response = requests.get(url, headers=myheaders)

if response.status_code == 200:
    print(response.text)

返回的结果变成:

{
  "headers": {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8", 
    "Accept-Encoding": "br, gzip, deflate", 
    "Accept-Language": "zh-cn", 
    "Host": "httpbin.org", 
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"
  }
}

在应用爬虫的时候,可以随机跟换其他 User-Agent 避免触发反爬。

2、selenium 模拟使用浏览器伪装 headers

使用自动化测试工具 selenium 可以模拟使用浏览器访问网站。本文使用 selenium 3.14.0 版本,该版本支持 Chrome 和 Firefox 浏览器。要使用浏览器需下载对应版本的 driver。

Driver 下载地址:

Browser Links ——— —————————————————————- Chrome https://sites.google.com/a/chromium.org/chromedriver/downloads Firefox https://github.com/mozilla/geckodriver/releases

使用 webdriver 访问本身自带浏览器的 headers。

from selenium import webdriver

url = 'https://httpbin.org/headers'

driver_path = '/path/to/chromedriver'
browser = webdriver.Chrome(executable_path=driver_path)
browser.get(url)

print(browser.page_source)
browser.close()

打印出返回的网页代码:

{
  "headers": {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8", 
    "Accept-Encoding": "gzip, deflate, br", 
    "Accept-Language": "zh-CN,zh;q=0.9", 
    "Host": "httpbin.org", 
    "Upgrade-Insecure-Requests": "1", 
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36"
  }
}

浏览器 driver 也能伪装 User-Agent,只需在创建 webdriver 浏览器对象的时候传入设置即可:

from selenium import webdriver

url = 'https://httpbin.org/headers'

user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"

driver_path = '/path/to/chromedriver'

opt = webdriver.ChromeOptions()
opt.add_argument('--user-agent=%s' % user_agent)

browser = webdriver.Chrome(executable_path=driver_path, options=opt)
browser.get(url)

print(browser.page_source)
browser.close()

此时返回的 User-Agent 就变成传入的设置了。

{
  "headers": {
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8", 
    "Accept-Encoding": "gzip, deflate, br", 
    "Accept-Language": "zh-CN,zh;q=0.9", 
    "Host": "httpbin.org", 
    "Upgrade-Insecure-Requests": "1", 
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"
  }
}

Firefox 浏览器 driver 的设置有所不同:

from selenium import webdriver

url = 'https://httpbin.org/headers'

user_agent = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.0.3 Safari/605.1.15"

driver_path = '/path/to/geckodriver'

profile = webdriver.FirefoxProfile()
profile.set_preference("general.useragent.override", user_agent)

browser = webdriver.Firefox(executable_path=driver_path, firefox_profile=profile)
browser.get(url)

print(browser.page_source)
browser.close()

3、requests 使用 ip 代理发送请求

当一个 ip 短时间访问太过频繁时,网站的反爬机制会被触发,将会要求输入验证码甚至封锁 ip 禁止访问。此时需要使用代理 ip 发起请求才可获取正确的网页。

访问 https://httpbin.org/ip 网址可以查看自己的 ip。

import requests

url = 'https://httpbin.org/ip'
response = requests.get(url)
print(response.text)

返回本机网络的ip:

{
  "origin": "202.121.167.254, 202.121.167.254"
}

使用代理 IP 与1中伪装 headers 的方式相似,比如现在得到一个代理ip:58.58.213.55:8888,使用如下:

import requests

proxy = {
    'http': 'http://58.58.213.55:8888',
    'https': 'http://58.58.213.55:8888'
}
response = requests.get('https://httpbin.org/ip', proxies=proxy)
print(response.text)

返回的就是代理 ip

{
  "origin": "58.58.213.55, 58.58.213.55"
}

4、selenium webdriver 使用代理 ip

chrome driver 使用代理 ip 的方式与伪装 user-agent 相似:

from selenium import webdriver

url = 'https://httpbin.org/ip'
proxy = '58.58.213.55:8888'
driver_path = '/path/to/chromedriver'
opt = webdriver.ChromeOptions()
opt.add_argument('--proxy-server=' + proxy)

browser = webdriver.Chrome(executable_path=driver_path, options=opt)
browser.get(url)
print(browser.page_source)
browser.close()

打印结果:

{
  "origin": "58.58.213.55, 58.58.213.55"
}

firefox driver 的设置略有不同,并且需要下载浏览器扩展 close_proxy_authentication 取消代理用户认证。可通过谷歌下载,本文使用 firefox 65.0.1 (64 位) 版本,可用的扩展文件是: [close_proxy_authentication-1.1-sm+tb+fx.xpi]。

代码如下:

from selenium import webdriver

url = 'https://httpbin.org/ip'
proxy_ip = '58.58.213.55'
proxy_port = 8888
xpi = '/path/to/close_proxy_authentication-1.1-sm+tb+fx.xpi'
driver_path = '/path/to/geckodriver'

profile = webdriver.FirefoxProfile()
profile.set_preference('network.proxy.type', 1)
profile.set_preference('network.proxy.http', proxy_ip)  # http 代理
profile.set_preference('network.proxy.http_port', proxy_port)
profile.set_preference('network.proxy.ssl', proxy_ip)  # https 代理
profile.set_preference('network.proxy.ssl_port', proxy_port)
profile.set_preference('network.proxy.no_proxies_on', 'localhost, 127.0.0.1')
profile.add_extension(xpi)  # 添加扩展

browser = webdriver.Firefox(executable_path=driver_path, firefox_profile=profile)
browser.get(url)
print(browser.page_source)
browser.close()

打印的同样是代理 ip。

<html platform="mac" class="theme-light" dir="ltr"><head><meta http-equiv="Content-Security-Policy" content="default-src 'none' ; script-src resource:; "><link rel="stylesheet" type="text/css" href="resource://devtools-client-jsonview/css/main.css"></head><body><div id="content"><div id="json">{
  "origin": "58.58.213.55, 58.58.213.55"
}
</div></div><script src="resource://devtools-client-jsonview/lib/require.js" data-main="resource://devtools-client-jsonview/viewer

最后:关于Python技术储备

学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!

朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

[[CSDN大礼包:《python安装包&全套学习资料》免费分享]]安全链接,放心点击

Python 爬虫:requests 和 selenium 伪装 headers 和代理应对反爬机制_第2张图片

Python学习大纲

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
在这里插入图片描述

入门学习视频

Python实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
在这里插入图片描述
最后,千万别辜负自己当时开始的一腔热血,一起变强大变优秀。

你可能感兴趣的:(Python编程,python入门,Python爬虫,python,爬虫,selenium,python入门,python教程)