关于([WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。)的解决方案。实测有效!

在爬取一个小站时,遇到了前几十条网页能顺利爬取,但突然报错的情况。
报错信息如下:Message=HTTPConnectionPool(host=‘pub.sinoss.net’, port=80): Max retries exceeded with url: /portal/webgate/CmdProjectView?proj_id=212473&applier=%C0%EE%BB%B3%C1%C1 (Caused by NewConnectionError(’: Failed to establish a new connection: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。’,))
把这个报错信息一百度,发现有很多博客,但都没能解决问题。在尝试了一中午之后,终于成功了!现将经验做一简要总结:
报错原因如下:
1.ip被封。
2.http的连接数超过最大限制。headers的Connection参数默认为keep-alive,导致之前所有的链接都一直存在,占用了后续的链接请求。
3.网站服务器太差,爬取请求的速度太快。(我的就是这样)
解决方案:
1.换ip,更换headers或者使用代理ip。
2.将Connection参数的值改为close。或者在requests.get前一行添加requests.adapters.DEFAULT_RETRIES = 5,意思是连接失败时重连五次。
3.将爬取操作放在while语句中。格式如下:

while True:
		try:
			response = requests.get(url, headers=headers,timeout=(30,50),verify=False)
			break
		except:
			print("Connection refused by the server..")
			print("Let me sleep for 5 seconds")
			print("ZZzzzz...")
			t.sleep(5)
			print("Was a nice sleep, now let me continue...")
			continue

这段代码是强制让爬取请求重连,如果连接失败就等待五秒继续连接。

参考文章:1.http://www.chenxm.cc/article/255.html
2.https://www.it610.com/article/1296090565229748224.htm
3.https://blog.csdn.net/qq_39451578/article/details/104216121

你可能感兴趣的:(爬虫,python,http)