基于卷积神经网络模型的MSTAR高分辨率图像数据集识别实践

     卷积神经网络CNN如今早已是深度学习的核心,广泛应用于各类任务中,在我以往的图像数据处理中大多接触的是比较具体的图像数据,比如:手写数字、手写字母、人脸数据、动物数据、交通信号数据等等,对于遥感或者是卫星相关的数据涉及得很少很少,今天找到了一个比较有意思的数据集【MSTAR高分辨率图像数据集】,想基于这个数据集来构建一下自己的卷积神经网络模型做一点实践。

     首先,查阅了一些相关的研究文献资料,简单介绍一下【MSTAR高分辨率图像数据集】

       当前用于研究SAR ATR 的图像是美国国防高级研究计划署(DefenseAdvanced Research Project Agency, DARPA) 和空军研究室(Air Force ResearchLaboratory, AFRL) 提供的MSTAR(Moving and Stationary Target Acquisitionand Recognition) 图像。

       通过高分辨率的聚束式合成孔径雷达采集多种前苏联目标军事车辆的SAR图像。MSTAR计划进行了SAR实测地面目标试验,包括目标遮挡、伪装、配置变化等扩展性条件,形成了较为系统、全面的实测数据库。随后,DARPA公布了该数据库。目前MSTAR数据集在SAR图像目标识别研究上得到广泛应用。该数据集的MSTAR PUBLIC TARGETS CHIPS包括有T72、BMP2和BTR70三大类目标图像数据,即三类目标识别问题数据。各种类别的目标还有不同型号,同类不同型号目标的差异表现在装备上,但总体差异不大。通常是在0°∼ 360°方位角下,每隔1°∼ 2°获取到的一次目标切片图像。MSTAR PUBLIC TARGETS CHIPS推荐了俯仰角为17°的三类目标图像集做训练集,俯仰角为15°的三类目标图像集做测试集。每个图像集中是雷达采集的数据经处理后得到的像素大小为128×128的静止车辆图像。

   

你可能感兴趣的:(CNN,LSTM建模实战专栏)