常见的三种反爬虫措施

Python爬虫是一种按照一定规则,自动抓取网络数据的程序或脚本,它能够快速实现抓取、整理任务,大大节省时间成本。因为Python爬虫的频繁抓取,会对服务器造成巨大负载,服务器为了保护自己,自然要作出一定的限制,也就是我们常说的反爬虫策略,来阻止Python爬虫的继续采集。

常见的三种反爬虫措施_第1张图片

1.对请求Headers进行限制

这应该是最常见的,最基本的反爬虫手段,主要是初步判断你是不是真实的浏览器在操作。这个一般很好处理,把浏览器中的Headers信息复制上去就可以解决。

特别注意的是,很多网站只需要userAgent信息就可以通过,但是有的网站还需要验证一些其他的信息,例如知乎,有一些页面还需要authorization的信息。所以需要加哪些Headers,还需要尝试,可能还需要Referer、Accept-encoding等信息。

2.对请求IP进行限制

有时我们的爬虫在爬着,突然冒出页面无法打开、403禁止访问错误,很有可能是IP地址被网站封禁,不再接受你的任何请求。

3.对请求cookie进行限制

当爬虫遇到登录不了、没法保持登录状态情况,请检查你的cookie。很有可能是你爬虫的cookie被发现了。

你可能感兴趣的:(ip,http)