(开源+深度学习+图像恢复)数据集,Imaganet数据集百度云

参考:
目前开源数据集整理
数字图像处理常用数据集资源(预览+下载)

博主目前在做图像恢复的相关实验,记录一下适用的数据集。
这个数据集可以用来做最后的图像恢复效果检测。
数字图像处理常用数据集CSet8,8张彩色图(含lena,house,pepper,monarch,airplane,baboon,barbara,ship),大小都为256*256.还有一张未裁剪的monarch.
(开源+深度学习+图像恢复)数据集,Imaganet数据集百度云_第1张图片
图像用深度学习跑的时候,用coco2014数据集即可,主要满足下述条件:
1、数据量够大,8.5万左右。
2、内容不单一
3、彩色居多
但是,用作图像恢复感觉还是不行,因为我看到了这句话:
微软发布的 COCO 数据库是一个大型图像数据集, 专为对象检测、分割、人体关键点检测、语义分割和字幕生成而设计。其对于图像的标注信息不仅有类别、位置信息,还有对图像的语义文本描述,COCO数据集的开源使得近两三年来图像分割语义理解取得了巨大的进展,也几乎成为了图像语义理解算法性能评价的“标准”数据集。

为了保证图像内容的丰富性,我开始下载imagenet2012数据集,测试集6.75G,训练集137G。等我下载好哈~网速也是醉了,迅雷会员一点屁用没有,开了会员还是那么慢,哎。。。。。。。

-----------------------------------------------这里是分割线----------------------------------------------------------------

我这个下载的问题解决了,137G的数据集下载好了。迅雷开了会员,要下2000多个小时,大概就是83天吧,微笑脸。然后呢,网速好点的时候,2M/s,也得一天,可是它一会儿就变成了2Kb/s了。。。。于是我换了一个百度云的链接,整了一个百度云的vip,只需要5个小时!!!!!!!!!!所以,,,,朋友们!!!!!!买百度云的vip比迅雷好用多了。
好了,不吐槽了,贴链接(imagenet train数据集,137G)
我设置的是永久有效,大家加油!

链接: https://pan.baidu.com/s/1beRnOx75gX40WfSmWfzLrw 提取码: mzsx

你可能感兴趣的:((开源+深度学习+图像恢复)数据集,Imaganet数据集百度云)