python 远程主机强迫关闭了一个现有的连接 socket 超时设置 errno 10054

: HTTPConnectionPool(host='c76dh.9m2v03.top', port=80): Max retries exceeded with url: / (Caused by NewConnectionError(': Failed to establish a new connection: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。',))

问题原因:

出现该问题的原因可能是由于自身网络问题或者mnist数据集下载网页连接不成功导致。

原因是:网络的原因,无法从tensorflow的py脚本程序中指定的网站下载mnist数据集。

解决办法:

进入MNIST数据下载网页:http://yann.lecun.com/exdb/mnist/

可能是你抓取的网站做了一些频率限制,遇到这种情况可以有几个办法:

1  降低抓取频率

2  模拟不同的访问请求,比如使用代理IP 匿名代理,变换user-agent,referer,cookie等

3  可能是抓太快被封了,也可能是Referer没设置对。


HTTPConnectionPool(host='  ', port=80): Max retries exceeded with url: / (Caused by ProtocolError('Connection aborted.', ConnectionResetError(10054, '远程主机强迫关闭了一个现有的连接。', None, 10054, None)))

python 远程主机强迫关闭了一个现有的连接 socket 超时设置 errno 10054

转自:

http://blog.csdn.net/cctt_1/article/details/4512103

python socket.error: [Errno 10054] 远程主机强迫关闭了一个现有的连接。问题解决方案:

前几天使用python读取网页。因为对一个网站大量的使用urlopen操作,所以会被那个网站认定为攻击行为。有时就不再允许下载。导致urlopen()后,request.read()一直卡死在那里。最后会抛出errno 10054.

这个错误是connection reset by peer.也就是传说的远端主机重置了此连接。原因可能是socket超时时间过长;也可能是request = urllib.request.urlopen(url)之后,没有进行request.close()操作;也可能是没有sleep几秒,导致网站认定这种行为是攻击。

具体解决方案如下面的代码:

import socket  

import time  

timeout =20    

socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置  

sleep_download_time =10  

time.sleep(sleep_download_time)#这里时间自己设定  

request = urllib.request.urlopen(url)#这里是要读取内容的url  

content = request.read()#读取,一般会在这里报异常  

request.close()#记得要关闭  

因为urlopen之后的read()操作其实是调用了socket层的某些函数。所以设置socket缺省超时时间,就可以让网络自己断掉。不必在read()处一直等待。

当然你也可以再外层再写几个try,except,例如:

try:  

     time.sleep(self.sleep_download_time)  

    request = urllib.request.urlopen(url)  

    content = request.read()  

    request.close()  

except UnicodeDecodeError as e:  

       print('-----UnicodeDecodeError url:',url)  

except urllib.error.URLError as e:  

       print("-----urlError url:",url)  

except socket.timeout as e:  

       print("-----socket timout:",url)  

一般来说就莫有问题了。我测试了几千个网页的下载,然后才说出此话。不过如果是下载成千上万的,我做了下测试,ms还是会跳出这个异常。可能是time.sleep()的时间太短,也可能是网络突然中断。我使用urllib.request.retrieve()测试了一下,发现不停的下载数据,总会有失败的情况出现。

简单的处理方法是:首先参照的我的文章:python检查点简单实现。先做一个检查点。然后将以上会跑出异常的那段代码while True一下。参见下面的伪代码:

def Download_auto(downloadlist,fun,sleep_time=15):  

while True:          

try: # 外包一层try   

            value = fun(downloadlist,sleep_time) # 这里的fun是你的下载函数,我当函数指针传进来。  

           # 只有正常执行方能退出。  

if value == Util.SUCCESS:  

break  

        except : # 如果发生了10054或者IOError或者XXXError  

            sleep_time += 5 #多睡5秒,重新执行以上的download.因为做了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了因为网络连接不稳定带来的程序中断。  

print('enlarge sleep time:',sleep_time)  


不过对于找不到相应的网页,又要做另外的一番处理:

# 打印下载信息  

def reporthook(blocks_read, block_size, total_size):  

     if not blocks_read:  

              print ('Connection opened')  

     if total_size < 0:  

             print ('Read %d blocks' % blocks_read)  

      else:  

                  # 如果找不到,页面不存在,可能totalsize就是0,不能计算百分比  

               print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))  

def Download(path,url):  

#url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar'  

    #filename = url.rsplit("/")[-1]  

try:  

    # python自带的下载函数  

        urllib.request.urlretrieve(url, path, reporthook)  

except IOErroras e: # 如果找不到,好像会引发IOError。  

print("download ",url,"/nerror:",e)  

print("Done:%s/nCopy to:%s"%(url,path)) 


HTTPConnectionPool(host='ctbgsg.agelu.top', port=80): Max retries exceeded with url: / (Caused by ConnectTimeoutError(, 'Connection to ctbgsg.agelu.top timed out. (connect timeout=5)'))


HTTPConnectionPool(host='w8qwql.beteu.top', port=80): Max retries exceeded with url: / (Caused by NewConnectionError(': Failed to establish a new connection: [WinError 10053] 您的主机中的软件中止了一个已建立的连接。',))

你可能感兴趣的:(python 远程主机强迫关闭了一个现有的连接 socket 超时设置 errno 10054)