对2021年度人工智能学习的一些总结

上年度在人工智能技术积累方面进步还是蛮大。首先是卷积神经网络(CNN),CNN在图像识别、目标检测方面应用最成熟。

文章目录

  • 1 卷积神经网络
    • 1.1 图片分类网络
    • 1.2 图像分割网络
    • 1.3目标检测网络
  • 2 循环神经网络
  • 3:迁移学习
  • 4:生成对抗网络
  • 5:强化学习

1 卷积神经网络

围绕卷积神经网络出现了一大堆衍生的网络结构,例如:

1.1 图片分类网络

AlexNet、VGGNet、GoogLeNet、ResNet、ResNeXt、DenseNet、DPN(Dual Path Network)。

1.2 图像分割网络

U-Net、V-Net、全卷积网络FCN、SegNet。

1.3目标检测网络

Fast R-CNN、Faster R-CNN、R-FCN、SSD、YOLO、YOLOv3等。

说实在的,上面的各种网络结构到现在有些地方我也没完全搞清楚他们之间的优缺点和差别。

2 循环神经网络

对于时序性数据处理,比较适合使用用RNN(循环神经网络),包括改进版的LSTM、GRU。例如语音、文字、股票序列等这种前后有关系的数据。

医疗影像处理中当前最成熟的就是基于CNN的有监督学习。但是监督学习需要带有标签高质量的大量医疗影像数据,获取这些数据很难,成本很高。就要想其他方法,所以接着学习了迁移学习、弱监督学习、自监督学习、GAN和强化学习。

3:迁移学习

迁移学习的思想:就是在普通图像上训练网络分类和分割,然后可以迁移到其他领域上,例如医疗图像上,减少数据成本。内在思想就是在卷积神经网络中可以利用前面若干层的网络权重输出的特征值加速训练过程。当然这里面基于对抗的迁移学习还是重点。

4:生成对抗网络

生成对抗网络(GAN)也是一个大进步,经过一系列学习就可生成和现有图像非常类似的图片。例如可以生成出以假乱真的人脸。当然我的想法是用这种技术使用在医疗图像方面。因为带标签的医疗图像数据集比较少,那么如果通过GAN生成大量的医学影像,也就能提高网络的泛化能力。

5:强化学习

其中感触最深的就是强化学习,这是一种基于策略的学习方式。例如如何训练一个机器人从这间屋子去到另外一间屋子里去拿咖啡。通过设置一些奖励和惩罚的规则,经过一个长期训练过程机器人就学会了拿咖啡。这种机器学习方法最大好处就是不需要大量的标签数据,只要设置好奖惩规则就可以了。强化学习也是未来人工智能发展的主要方向,例如可应用在自动驾驶等方面。

跨越这一层层的技术关还是挺难的,但是跨越过去还是挺有成就感的。上面的一些新技术已经在实践中得到了应用,但是感觉还是不扎实。2022年计划就是把上面这些技术在项目中落地,扎扎实实作出好产品或者应用到项目中。

你可能感兴趣的:(人工智能,深度学习,神经网络)