爬虫中出现的各种报错问题

此文章只记录自己写的爬虫每次的报错问题,并找到解决方案Solution

PermissionError:
1、你有可能已经打开了这个文件,关闭这个文件即可
2、open打开了一个文件夹(目录),而不是文件
Solution:
检查一下需要打开的文件是不是被打开了,关闭重新运行代码就行
检查一下文件的后缀是否正确

requests.exceptions.ConnectionError:
1、http的连接数超过最大限制,默认的情况下连接是Keep-alive的,所以这就导致了服务器保持了太多连接而不能再新建连接。
2、ip被封
3、请求过快
Solution:
1.在header中不使用持久连接 ‘Connection’: ‘close’ 或 requests.adapters.DEFAULT_RETRIES = 5
2.若是请求过快,可设置time.sleep
3.使用代理ip
4.Requests请求时有时会请求不到页面,或是请求到空白的页面,超时要重试几次,使用try…except语句

urllib3.exceptions.MaxRetryError:
1、最大重试错误
Solution:
原因和解决方案待定
网上有解决答案是:pip install -U pyopenssl和pip install -U “urllib3<1.25”
都没说是为啥,知其然而不知其所以然。
这个错误和ConnectionError(就是上一个错误)是同时出现的,个人经验感觉:可能是访问一个网址错误后,使用递归持续访问但是没有sleep,导致错误-重试-错误-重试-错误 所引发的报错,可以试着在代码中降速

你可能感兴趣的:(各种Error)