大话深度残差网络(DRN)ResNet网络原理

大话深度残差网络(DRN)ResNet网络原理_第1张图片

一说起“深度学习”,自然就联想到它非常显著的特点“深、深、深”(重要的事说三遍),通过很深层次的网络实现准确率非常高的图像识别、语音识别等能力。因此,我们自然很容易就想到:深的网络一般会比浅的网络效果好,如果要进一步地提升模型的准确率,最直接的方法就是把网络设计得越深越好,这样模型的准确率也就会越来越准确。

那现实是这样吗?
先看几个经典的图像识别深度学习模型:
大话深度残差网络(DRN)ResNet网络原理_第2张图片

这几个模型都是在世界顶级比赛中获奖的著名模型,然而,一看这些模型的网络层次数量,似乎让人很失望,少则5层,多的也就22层而已,这些世界级模型的网络层级也没有那么深啊,这种也算深度学习吗?为什么不把网络层次加到成百上千层呢?

带着这个问题,我们先来看一个实验,对常规的网络(pl

你可能感兴趣的:(深度学习)