python爬虫 requests异常:requests.exceptions.ConnectionError: HTTPSConnectionPool Max retries exceeded

使用 requests抓取网页时会碰到如下异常:
requests.exceptions.ConnectionError: HTTPSConnectionPool Max retries exceeded

原因

1.http的连接数超过最大限制,默认的情况下连接是Keep-alive的,所以这就导致了服务器保持了太多连接而不能再新建连接。
2.ip被封
3.请求过快

解决

1.在header中不使用持久连接
‘Connection’: ‘close’

requests.adapters.DEFAULT_RETRIES = 5
2.若是请求过快,可设置time.sleep
3.使用代理ip
4.Requests请求时有时会请求不到页面,或是请求到空白的页面,超时要重试几次,使用try…except语句

你可能感兴趣的:(爬虫)