将大尺寸的卷积拆解为多层 3×3 的卷积
相同的感受野、更少的参数量、更多的层数和表达能力
猜想:虽然深层网络有潜力达到更高的精度,但常规的优化算法难以找到这个更优的模型。即,让新增加的卷积层拟合一个近似恒等映射,恰好可以让浅层网络变好一点。
等同于多模型集成残差网络有 (2) 个隐式的路径来连接输入和输出,每添加一个块会使路径数翻倍。
基本思路:借助强化学习等方法搜索表现最佳的网络。
代表工作:NASNet (2017)、MnasNet (2018)、EfficientNet (2019) 、RegNet (2020) 等。
使用 Transformer 替代卷积网络实现图像分类,使用更大的数据集训练,达到超越卷积网络的精度。
代表工作:Vision Transformer (2020),Swin-Transformer (2021 ICCV 最佳论文)。
将 Swin Transformer 的模型元素迁移到卷积网络中,性能反超 Transformer.
后续继续学习后更新
后续继续学习后更新
后续继续学习后更新
后续继续学习后更新
后续继续学习后更新
后续继续学习后更新
后续继续学习后更新
后续继续学习后更新
后续继续学习后更新
OpenMMLab AI实战营——02 图像分类与 MMClassification