Attention deep neural network for lane marking detection解析

Abstract:

(1)深度神经网络(DNN)中感受域的经验大小比理论上的要小得多;(2)我们没有考虑到DNN中每个通道的重要性

  语义分割技术在检测目标时会导致错误的车道标记分割位置,

  外观线索较少的痕迹。

Introduction:

自我注意对扩大接受域的经验大小有显著的影响。

通道注意,用来计算每个通道的权重,可以有效地强调重要的特征图。

contributions:

  我们提出了一个融合自我注意和通道注意的模块,以扩大接受域的经验大小,并强调了重要的特征图。

  提出了一种初始建模自我注意和同时引导注意的方法。然后,自我注意乘以一个可学习系数,并按元素添加到通道注意。

Relate work:

大多数传统的算法都是基于手工制作的特性。这些方法使用一个被检测到的消失点来约束被检测到的车道标记的边缘。

最近的研究已经使用神经网络代替人工设计的滤波器来提取车道标记边缘的特征信息。

Attention mechanisms

它利用一系列局部信息有选择地专注于突出的部分,有效地理解场景信息。

Sij表示特征图中第i个和第j个位置的相关性,

不同渠道对不同任务的重要性是不同的。例如,某些通道上的上下文对于被遮挡区域中的像素恢复很重要。我们应该更加关注这些渠道。渠道注意提供了一个根据渠道重要性增加不同权重的好方法。

子模块的组合。通道注意和自我注意模块分别关注于建模像素之间的长期依赖和特征地图依赖。这两个模块可以以并行或顺序的方式放置。假设X是前一层的输出,o是最终的输出。函数Sa(x)和Ca(x)分别是自我注意和引导注意的模型。

1)“fc7”层的输出通道从1024更改为128。(2)“fc6”膨胀速率从12变为4。(3)每个Relu层之前都有一个BN操作。(4)AMSC被添加到fc7”层之后。

Parameters and efficiency analysis

我们的AMSC中的参数总数只有SCNN的二十分之一。

因此,AMSC具有固有的并行计算优势。这个特性使AMSC比SCNN模块更快。

我们采用与SCNN[12]相同的实验评价指标f-测度,描述如下:

(1)第3.2节提供了两种将自我注意与渠道注意相结合的方法。该任务评估了自注意和通道注意的不同组合在车道标记检测中的表现。我们改变了自我注意和引导注意的结合方式。SA+CA和CA+SA表示顺序组合,AMSC表示并行组合。表1提供了结果。实验结果表明,并行组合比连续组合的性能优于连续组合。这一结果是由于一个子模块可能会以顺序组合的方式破坏由前一个子模块建模的依赖关系。但是,这两个子模块将不会以并行组合的方式相互影响。

我们评估了在改进的LargeFOV网络中,用5×5卷积核替换AMSC的性能。证明了性能的提高不是由附加参数引起的,而是AMSC的有效设计。

AMSC的不同位置会导致不同的性能。

实验结果。在本节中,我们进行了广泛的实验来评估AMSC和改进的LargeFOV。我们将我们的方法与最先进的方法进行了比较,包括基线和SCNN。然后,我们将我们的方法与上述方法进行了比较。 (1).我们将改进后的LargeFOV与基线和SCNN进行了比较,以验证其有效性。结果如表8所示,可视化结果如图12所示。实验结果表明,我们改进后的LargeFOV的性能超过基线值1.27%,并达到了与SCNN相当的性能。改进后的LargeFOV和SCNN可以有效地利用长距离和信道依赖关系来提高性能。在这个数据集上,这些方法之间的性能差异相对较小。这种情况是由于来自高速公路场景的图像;因此,这些图像中的土地标记简单且易于检测。(2).我们比较了模型的运行时,以进一步验证在第3.3节中描述的计算效率的理论分析。在实验中,所有的方法都使用TensorFlow[32]实现,并在GTXGPU(笔记本)上运行。表9提供了结果。实验结果表明,改进后的large视场比SCNN快1.6×。AMSC和SCNN模块需要3.4和44.7ms来处理45个×80×128特征图。这种情况是由于SCNN模块需要执行大约250个卷积操作。同时,AMSC只需要3个卷积运算和4个矩阵乘法运算。矩阵乘法也可以通过并行设备来加速。与在CULane数据集上进行的大约272个卷积操作相比,SCNN的运行时减少了4.1ms。结果表明,大量的卷积操作会导致计算效率较低。

你可能感兴趣的:(深度学习入门,深度学习)