You Only Learn One Representation: Unified Network for Multiple Tasks论文阅读

You Only Learn One Representation: Unified Network for Multiple Tasks论文阅读


代码

paper:arxiv.org/pdf/2105.0420

code: WongKinYiu/yolor

摘要

论文中,提出了一个统一的网络将隐性知识(implicit knowledge)和显性知识(explicit knowledge)编码在一起,就像人类的大脑可以从正常的学习知识和潜意识学习,该网络可以生成一个统一的表征(representation)同时用于多个任务(刚开始还以为是可以同时作用于检测,分割,姿态估计等任务,结果实验部分只有目标检测,这个多任务好像说的是目标检测中的分类与定位。。)。可以在卷积神经网络中执行kernel space alignment,prediction refinement,multi-task learning。结果表明,将implicit knowledge引入到神经网络中,有利于所有任务的执行。作者进一步分析了从所提出的统一网络中学习到的implicit knowledge,它显示出很强的捕捉不同任务物理意义的能力。

You Only Learn One Representation: Unified Network for Multiple Tasks论文阅读_第1张图片

介绍

如图1所示,人可以从多个角度分析一张图片,然而CNN通常只能实现一个目标。也就是说,从CNN提取的特征不能适用与其他类型的问题。这是因为我们只使用了网络提取的特征,而网络中丰富的隐性知识(implicit knowledge)并没有使用。然而没有系统的定义implicit learning怎样操作以及怎样获得implicit knowledge。通常,在神经网络的定义中,来自浅层网络的特征为显性知识(explicit knowledge),从深层网络得到的特征为隐性知识(implicit knowledge)。该论文中,把与观察直接对应的知识称为显性知识,对于模型中隐含的与观察无关的知识,称之为隐性知识。

You Only Learn One Representation: Unified Network for Multiple Tasks论文阅读_第2张图片

作者提出一个统一的网络来融合隐性知识(implicit knowledge)和显性知识(explicit knowledge),确保模型包含一个统一的表征(representation),这个统一的表征允许子表征(sub-representation)也适用于其他任务。如图2c所示。

————————————————

版权声明:本文为CSDN博主「Laughing-q」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:

You Only Learn One Representation: Unified Network for Multiple Tasks论文阅读

你可能感兴趣的:(深度学习,神经网络,cnn,人工智能,计算机视觉)