遥感影像-语义分割数据集:DeepGlobe-Land-cover数据集详细介绍及训练样本处理流程

原始数据集详情

简介:提供高分辨率亚米卫星图像,重点是农村地区。由于土地覆盖类型的多样性和注释的高密度,该数据集很具挑战性。该数据集共包含1146幅卫星图像,大小为2448×2448像素,分为训练/验证/测试集,每组图像为803/171/172幅(对应70%/15%/15%)。

Key Value
卫星类型 DigitalGlobe’s 卫星
覆盖区域 未知
场景 重点是农村地区
分辨率 50cm
数量 训练集803幅、验证集171幅、测试集172幅
单张尺寸 2448 * 2448
原始影像位深 8位
标签图片位深 8位
原始影像通道数 三通道
标签图片通道数 三通道
官网 http://deepglobe.org/index.html

标签类别对照表

像素值 类别名(英文) 类别名(中文) RGB
0 background 未知土地
1 Urban land 城市土地-人造建筑(可以忽略道路) 0,255,255
2 Agriculture land 农业用地-农田,任何计划中(定期)的种植、农田、果园、葡萄园、苗圃、观赏性园艺以及养殖区 255,255,0
3 Rangeland 牧场-除了森林,农田之外的绿色土地,草地 255,0,255
4 Forest land 森林-任何土地上有x%的树冠密度 0,255,0
5 Water 水系-江河湖海湿地 0,0,255
6 Barren land 荒地-山地,沙漠,戈壁,沙滩,没有植被的地方 255,255,255

数据处理部分

大家是否有这样的困惑,真值标签图片的像素值太小,比如1、2、3······,由于像素值太小,导致看上去标签图片全为黑色,无法看出真值标签与影像图片的像素位置是否对应?如果真值标签的像素值间隔太大,又无法直接作为训练样本。

其实有办法可以解决这个问题,那就是在像素值为1、2、3等的图片上添加一个彩色表,添加的彩色表不会改变图片的像素值,但是可以由彩色的视觉效果展示,如下图所示:

下面对原始影像及标签进行模型训练前的数据预处理,根据这套数据集的原始信息,原作者整理的已基本接近训练条件,现在需要做的是根据自己训练模型的图片尺寸大小批量裁剪原始影像和标签为所需要的尺寸,比如512*512,另外如果需要检查裁剪后的数据是否一一对应,最好给标签数据添加颜色表,这样就可以轻易看出影像和真值标签是否一致。

下面就是使用代码对原始影像及原始标签进行批量裁剪为512*512大小,并给真值标签添加颜色表,效果图如下所示:

遥感影像-语义分割数据集:DeepGlobe-Land-cover数据集详细介绍及训练样本处理流程_第1张图片

最后可以直接用于训练的数据集结构如下所示

/path/to/LoveDA
├── train
│   ├── images
│   │   ├── 2522_0_0.tif
│   │   ├── 2522_0_512.tif
│   │   └── ......
│   └── labels
│       ├── 2522_0_0.tif
│       ├── 2522_0_512.tif
│       └── ......
└── val
    ├── images
    │   ├── 2522_512_512.tif
    │   ├── 2523_0_0.tif
    │   └── ......
    └── labels
        ├── 2522_512_512.tif
        ├── 2523_0_0.tif
        └── ......

需要原始数据集、已处理数据、裁剪后可训练数据集的小伙伴可私信哦!

你可能感兴趣的:(语义分割数据集,计算机视觉,深度学习,图像处理,数据分析)