关于语义分割从Github上档下来到跑通,实时

毕设做关于语义分割的,前段时间跑通一个基于resnet 101的deeplab v2的代码,但mIOU不管怎么训练都上不去,经过问师兄和查找资料可能的原因有:

  • 在当前学习率下模型已经饱和;

  • deeplabv2 本身mIOU 最高66%,加之算法实现过程没有优化

    由于时间关系我准备换一个参考代码,经介绍我选择Github中:
    https://github.com/GeorgeSeif/Semantic-Segmentation-Suite参考
    再次声明:本人基础不太好,遇到的问题可能比较常识,解决方法仅供参考,有错误的地方请大家赐教,共同进步。

    接下来正式开始:

  1. 等待下载ing。。。
    大概528M左右,,直接在浏览器上下载.zip总是失败,于是我使用迅雷下载,果然不但速度快而且完美下好了。

  2. 解压后目录下是这样的文件。关于语义分割从Github上档下来到跑通,实时_第1张图片

  3. 直接整个文件夹导入pycharm中,(我的环境:python 3.7+tensorflow-gpu 1.12.0)先大概看一下文件里的东西,感觉很齐乎的,直接train试试水。结果报错如下:关于语义分割从Github上档下来到跑通,实时_第2张图片
    发现报错原因是没有下载好resnet101,在utils/get_pretrained_checkpoints.py中找自己需要模型的URL,复制URL区下载。将下载好的模型放在models中。接下来二train,没想到直接成功,开始训练,如下图:关于语义分割从Github上档下来到跑通,实时_第3张图片
    美滋滋,非常感谢一位师兄,没想到坑这么少。
    大概了解了一下,训练的图片是驾驶场景,大概480张,不太多,我还是准备先训练一个模型出来试试,期间我了解一下代码结构,下篇会谈谈预测和测试时候的过程和问题。

参考:https://blog.csdn.net/qq_34606546/article/details/86514306

你可能感兴趣的:(深度学习)