Backbone 在神经网络中意味着什么?

动动发财的小手,点个赞吧!

1. 简介

神经网络是机器学习算法,我们可以将其用于许多应用,例如图像分类、对象识别、预测复杂模式、处理语言等等。神经网络的主要组成部分是层和节点。

一些神经网络架构有一百多个层和几个解决不同子问题的逻辑部分。其中一个部分是神经网络主干。

在本教程中,我们将描述什么是主干以及最流行的主干类型。

2. 神经网络

神经网络是明确设计为生物神经网络灵感的算法。最初,目标是创建一个功能类似于人脑的人工系统。神经元和层是神经网络的主要组成部分。

根据层和神经元的类型,神经网络主要分为三类:

  • 全连接神经网络(常规神经网络)
  • 卷积神经网络
  • 递归神经网络

例如,卷积神经网络可以更好地处理图像,而循环神经网络可以更好地处理序列类型的数据。为了解释主干在神经网络中代表什么,我们将以卷积神经网络中的主干为例。此外,在文献中的大多数情况下,主干都在卷积神经网络的背景下。

3. 卷积神经网络

卷积神经网络 (CNN) 是一种人工神经网络,我们主要用于对图像进行分类、定位对象以及从图像中提取特征,例如边缘或角。 CNN 的成功是因为它们可以处理大量数据,例如图像、视频和文本。

这些网络使用卷积运算来处理输入数据。当输入图像时,CNN 可以学习不同的特征。例如:

  • 网络的初始层学习低级特征,例如线、点、曲线等。
  • 网络中间的层学习构建在低级特征之上的对象。
  • 顶层可以根据前一层的特征理解高级特征,并完成分配的任务。

除此之外,还可以使用使用不同数据训练的预训练网络。这要归功于迁移学习技术。例如,神经网络在一个数据集上学习一些模式,稍加调整就可以将它们用于另一个数据集。当然,数据集越相似,我们期望的结果就越好。

4. 神经网络中的主干

除了图像分类,更复杂的 CNN 架构可以解决不同的计算机视觉任务,例如对象检测或分割。多亏了迁移学习,我们可以在另一个最初为图像分类训练的 CNN 之上构建用于对象检测的架构。在这种情况下,我们使用 CNN 作为特征提取器,它实际上是对象检测模型的骨干:

Backbone 在神经网络中意味着什么?_第1张图片

通常,术语主干是指将输入数据处理为某种特征表示的特征提取网络。这些特征提取网络通常在更简单的任务上作为独立网络表现良好,因此,我们可以将它们用作更复杂模型中的特征提取部分。 我们可以将许多流行的 CNN 架构用作神经网络的主干。其中一些包括:

  • VGGs——包括具有 16 层和 19 层的 VGG-16 和 VGG-19 卷积网络。它们在许多任务中被证明是有效的,尤其是在图像分类和目标检测方面。
  • ResNets – 或残差神经网络由卷积层和池化层块之间的跳跃连接或循环单元组成。 ResNet-50 和 ResNet 101 的一些流行版本在对象检测和语义分割任务中很常见。
  • Inception v1 – GoogleNet 是最常用的卷积神经网络之一,作为许多计算机科学应用的支柱,包括视频摘要和动作识别。

5. 总结

本文[1]中,我们描述了主干在神经网络中代表什么以及最受欢迎的主干是什么。大多数情况下,我们在计算机视觉中使用主干。它代表了一种流行的 CNN,具有用于更复杂的神经网络架构的特征提取功能。

Reference

[1]

Source: https://www.baeldung.com/cs/neural-network-backbone#backbone-in-neural-network

本文由 mdnice 多平台发布

你可能感兴趣的:(深度学习)