OpenMMLab实战营--第2课

        今天是OpenMMLab的第二堂课,顺延昨天课程,对图像分类以及计算机视觉基础模型发展过程中的一些关键节点进行了讲解。

视频链接放上: https://www.bilibili.com/video/BV1js4y1W7CN/?share_source=copy_web&vd_source=572213d51c64269af07de4af3126102c

         先放上一张图,个人认为可以在一定程度上了解图像分类的一些关键发展节点。

OpenMMLab实战营--第2课_第1张图片

        由图中不难发现,自基于特征工程的传统视觉时期到基于特征学习的深度学习时期,人们在ImageNet竞赛上的图像分类水平越来越高。

        所谓特征工程,据我浅显的理解应该就是根据已有图像数据,通过人为地设计一些特征来简化对我们想要分类的类别进行简化的表达,通俗地说就是找到最容易代表一个类别的东西来我们看到这个东西就知道它代表是什么类别,也就是我们通俗理解的“特征”吧。就好比下图中所述一样:极大简化数据表达且保留内容的相关信息。

        但是,想必大家也都容易发现通过人为设计图像特征(通常是基于实验结果以及经验分析),在刻意保留一些特征的同时,也很可能会丢掉很多我们注意不到的信息(但其实这些信息对分类很有用),所以就导致其在面对新数据的时候泛化能力不强,也就是我们说的不能够举一反三。

        那怎么解决这个问题呢?人们想到可能把寻找特征的这一过程交由机器来学习得到可能会有不错的效果,这时候,大名鼎鼎的卷积神经网络登场啦。OpenMMLab实战营--第2课_第2张图片

        “卷积”一词大家可能也经常听到,但其中的一些细节我们也许并不了解。就好比我不知道卷积核内每个元素是如何确定的?怎么知道卷积核能够卷出我们想要的特征?……还有一大堆的疑问,希望在后续学习中慢慢填坑。

        接下来,还介绍了深度学习图像分类中的一些代表性工作。

OpenMMLab实战营--第2课_第3张图片

         其中我比较感兴趣的是ResNet,它的提出主要解决了网络模型加深反而导致精度退化的问题。按理来说,随着神经网络层数的增加,其非线性越庞大,能够达到的精度也越高,在我的认知里应该起码不会比浅层的网络低,但是事实在ResNet出现以前,实验表明模型层数增加到一定程度后,分类正确率不增反降,而且这并不是“过拟合”问题,因为“过拟合”是在测试数据集上表现糟糕,但在验证集上表现优异;而精度退化则是在两个数据集上都糟糕。

 OpenMMLab实战营--第2课_第4张图片

         关于ResNet,我还没有仔细地学习,找到一篇参考文章,立个flag,到时候补上(doge)

链接:https://www.guyuehome.com/37655

你可能感兴趣的:(OpenMMLab,计算机视觉,人工智能)