[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8EJgMcgK-1691050515642)(https://cdn.nlark.com/yuque/0/2023/png/1313150/1691048724422-2a76d7b8-3ec3-48b7-9aec-d609d09b16d4.png#averageHue=%2385b0a7&clientId=u3856fd20-7701-4&from=ui&id=u75f920fe&originHeight=512&originWidth=512&originalType=binary&ratio=1&rotation=0&showTitle=false&size=481263&status=done&style=none&taskId=uafc1b696-d7fe-482b-bb71-207c932f8e1&title=)]
在进行网络爬虫开发时,我们经常需要模拟浏览器发送请求来获取网页数据。然而,有些网站为了保护自身的安全和隐私,会对请求进行限制和过滤。为了绕过这些限制,我们可以使用代理IP来隐藏真实的请求来源。但是,仅仅使用代理IP可能不足以达到我们的目的,因为一些网站会根据请求头中的Referer和User-Agent信息来判断请求的合法性。因此,本文将探讨网络爬虫请求头中的Referer和User-Agent与代理IP的配合使用的技巧和注意事项。
常见格式: User-Agent的格式通常为"产品名称/产品版本号",例如:
在实际开发中,我们可能会遇到一些问题,例如请求被拒绝、返回错误的数据等。这些问题可能与请求头中的Referer和User-Agent有关。为了解决这些问题,我们可以按照以下步骤进行问题排查:
import requests
headers = {
'Referer': 'https://www.example.com'
}
response = requests.get('https://www.target-website.com', headers=headers)
import requests
# 通过亿牛云爬虫代理来测试
proxyHost = 't.16yun.cn'
proxyPort = 30001
# 设置请求头
headers = {
'Referer': 'https://www.example.com',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'
}
# 设置代理
proxies = {
'http': f'http://{proxyHost}:{proxyPort}',
'https': f'https://{proxyHost}:{proxyPort}'
}
# 发送请求
response = requests.get('https://www.example.com', headers=headers, proxies=proxies)
# 处理响应
print(response.text)
import requests
# 设置请求头
headers = {
'Referer': 'https://www.example.com',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182'
}
# 发送请求
response = requests.get('https://www.target-website.com', headers=headers)
# 处理响应
print(response.text)