经典/热门神经网络模型介绍,及深度学习常用知识点-面试知识点总结5

提示:作者将用一个系列的博客,总结机器/深度学习算法工程师岗位面试中常见的一些知识点,以帮助小伙伴们更好的应对面试。本系列的内容包括如下:
系列一:机器学习相关基础知识小Tip
系列二:Python基础总结
系列三:CNN相关知识
系列四:Transformer相关知识总结
系列五:经典/热门模型介绍,及深度学习常用知识点
系列六:PyTorch相关知识点及端侧部署基础知识
注:以防再也找不到我,可以收藏博客、关注作者,查看最新内容哦(持续更新中…)

文章目录

  • 系列五:经典/热门神经网络模型介绍,及深度学习常用知识点
    • 1.介绍MobileNet系列。
    • 2. 介绍ResNet模型及其主要改进?(来源:OPPO)
    • 3. VGG相比AlexNet的卷积核对比
    • 4. 如何解决类别极度不平衡的问题?
    • 5. 哪些方法可以提升小目标检测的效果?
    • 6. 对超参数不敏感的梯度算法
    • 7:机器视觉相关知识


系列五:经典/热门神经网络模型介绍,及深度学习常用知识点

1.介绍MobileNet系列。

1)MobileNet是一种轻量级的网络结构,主要针对手机等嵌入式设备而设计。MobileNet网络结构在VGG的基础上使用depthwise Separable卷积(深度可分卷积),在保证不损失太大精度的同时,大幅降低模型参数量。2)Depthwise separable卷积是由Depthwise卷积(深度卷积)和Pointwise卷积(逐点卷积)构成(Depthwise Convolution是对输入的特征图的每一个通道单独做卷积,因此这里的卷积核通道数自然也都是1。Pointwise Convolution是对第一部分得到的M个特征图做1 x 1卷积,卷积核个数为N)。Depthwise卷积(DW)能有效减少参数量并提升运算速度。但是由于每个特征图只被一个卷积核卷积,因此经过DW输出的特征图只包含输入特征图的全部信息,而忽略了特征图之间的信息交流。Pointwise卷积(PW)可实现通道特征信息交流,以弥补了DW卷积的缺陷。

2. 介绍ResNet模型及其主要改进?(来源:OPPO)

1)ResNet把网络结构调整为,如果某一层的输出已经较好的拟合了期望结果,那么多加入一层不会使得模型变得更差,因为该层的输出将直接被短接到两层之后,相当于直接学习了一个恒等映射,而跳过的两层只需要拟合上层输出和目标之间的残差即可。并且使用Batch Normalization层(一种标准化处理)加速训练(丢弃dropout方法)。
2)ResNet模型的特点以及解决的问题?加入了残差模块用于解决网络性能退化以及更深网络的梯度消失或梯度爆炸问题。模型的特点则是设计了残差结构,其对模型输出的微小变化非常敏感。
3)ResNeXt模型是在ResNet模型的基础上进行优化。其主要是在ResNeXt中引入Inception思想(就是复用更多特征,提高特征张量宽度,提高对特征的囊括性)。如下图所示,左侧是ResNet结构将单路卷积转化成多支路的多路卷积,进行分组卷积,变成了ResNeXt结构。
经典/热门神经网络模型介绍,及深度学习常用知识点-面试知识点总结5_第1张图片

3. VGG相比AlexNet的卷积核对比

VGG相比AlexNet结构使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5*5卷积核,这样做的主要目的是在保证具有相同感知野的条件下,提升了网络的深度,增加了非线性,在一定程度上改善了神经网络的效果。对于给定的感受野,采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且由于参数量减少使得代价较小。

4. 如何解决类别极度不平衡的问题?

1)欠采样方法,即去除一些多数类中的样本使得正例、反例数目接近,然后再进行学习。2)过采样方法,即增加一些少数类样本使得正、反例数目接近,然后再进行学习。3)采样算法从数据层面解决不平衡数据的学习问题;在算法层面上解决不平衡数据学习的方法主要是基于代价敏感学习算法。为了权衡不同类型错误所造成的不同损失,可为错误赋予“非均等代价”(unequal cost)。4)使用不平衡学习的评价指标,如F1-score或AUC。

5. 哪些方法可以提升小目标检测的效果?

1)提高图像分辨率。小目标在边界框中可能只包含几个像素,那么能通过提高图像的分辨率以增加小目标的特征的丰富度。2)提高模型的输入分辨率。这是一个效果较好的通用方法,但是会带来模型inference速度变慢的问题。3)平铺图像。4)数据增强。小目标检测增强包括随机裁剪、随机旋转和镶嵌增强等。5)自动学习anchor。6)类别优化。

6. 对超参数不敏感的梯度算法

是Adadelta,牛顿法。关于梯度优化的算法可以参考百面以及下面的链接。
链接:https://blog.csdn.net/qq_34470213/article/details/79869206

7:机器视觉相关知识

  1. One-stage和Two-stage的详解?
    1)1、什么是One-stage?直接回归物体的类别概率和位置坐标值(无region proposal),但准确度低,速度比two-stage快。
    直接通过主干网络给出类别和位置信息,没有使用RPN网路。这样的算法速度更快,但是精度相对Two-stage目标检测网络了略低。
    目前常用的典型的One-stage目标检测网络: YOLOv1、YOLOv2、YOLOv3、SSD、DSSD、Retina-Net等
    2)什么是Two-stage?先由算法生成一系列作为样本的候选框,再通过卷积神经网络进行样本分类。
    Two-stage的目标检测方法概述?对于Two-stage的目标检测网络,主要通过一个卷积神经网络来完成目标检测过程,其提取的是CNN卷积特征,在训练网络时,其主要训练两个部分,第一步是训练RPN网络,第二步是训练目标区域检测的网络。网络的准确度高、速度相对One-stage慢。
    目前常用的典型的Two-stage目标检测网络:R-CNN到Faster R-CNN网络

注:这些知识点是作者在备战秋招的时候,根据一些零碎的博客做的总结(写作目的:主要用于各位小伙伴们的知识交流,如若侵权,则会及时删除)。

祝愿您能顺利通过每一次面试哈,干就完事了!加油!

*以防再也找不到我,可以收藏博客、关注作者,查看后续系列内容哦(持续更新中…)

你可能感兴趣的:(深度学习,神经网络,python)