OpenMMLab AI实战营 vol.02

  1. 图像分类发展历程

传统方法:设计图像特征(1990s-2000s),图像→(人工设计的算法)→特征向量→(机器学习)→分类,受限于人类智慧

从特征工程到特征学习:深度学习时代(2012至今),层次化特征的实现:CNN、Transformer等

  1. 卷积神经网络

AlexNet→VGG, GoogLeNet→ResNet及其改进

  1. 更强的图像分类模型

神经结构搜索Neural Architecture Search(2016+):借助强化学习等方法搜索表现最佳的网络,NASNet, MnasNet, EfficientNet等

Vision Transformer(2020+):用Transformer替代卷积网络

ConvNeXt(2022):返璞归真,将训练Transformer的trick引入CNN中

  1. 轻量化卷积神经网络

将常规卷积分解为逐层卷积和逐点卷积,降低参数量和计算量;可分离卷积是分组卷积的特殊情形,是最激进的一种。

  1. VisionTransformer

通过一组或多组query, key, value计算注意力权重;

Swin Transformer:提出分层结构、将MHSA限制在计算窗口内提高效率,通过Shift windows让信息跨窗口传递

  1. 模型学习

(1)监督学习

标注数据→定义损失函数→求解最优化问题,寻找最优参数

学习率和优化器策略:annealing、warmup、linear scaling rule、weight decay等

数据增强:组合数据增强、组合图像、标签平滑等

(2)自监督学习

你可能感兴趣的:(人工智能,深度学习,计算机视觉)