YOLO前篇---Real-Time Grasp Detection Using Convolutional Neural Networks

论文地址:https://arxiv.org/abs/1412.3128

1. 摘要

  • 比目前最好的方法提高了14%的精度,在GPU上能达到13FPS

2. 基于神经网络的抓取检测

A 结构

  • 使用AlexNet网络架构,5个卷积层+3个全连接层,卷积层有正则化和最大池化层
  • 网络结构示意图如下
    YOLO前篇---Real-Time Grasp Detection Using Convolutional Neural Networks_第1张图片

B 直接回归抓取

  • 最后一个全连接层输出6个神经元,前4个与位置和高度相关,另外2个用来表示方向
  • 该模型假设每幅图像只包含一个可抓取对象,这种假设的好处是不需要用基于滑动窗口的方法对每一个小块进行分类
  • loss为最小化抓取位置的平方差,即L2 loss

C 回归+分类

  • 结构与B一样,只需要在输出层上加上与目标类别相关的神经元即可

D 多抓取检测(MultiGrasp)

  • MultiGrasp把图像分成 N × N N\times N N×N 个网格
  • 每个网格最多只预测一个抓取目标
  • 如果某个网格要预测抓取目标,则该抓取目标中心必须落在该网格内
  • 网络的输出为 N × N × 7 N \times N \times 7 N×N×7 的预测,其中第1个通道为某个区域包含抓取对象的概率热力图,另外6个通道为该区域抓取对象的坐标
  • 实验采用 7 × 7 × 7 7 \times 7 \times 7 7×7×7 共343个神经元输出
  • 训练假设:
    a.MultiGrasp看一幅图像时,随机选择最多5个ground truth作为抓取目标。在构建热力图时,最多5个网格被填充为1,其余的都置0
    b.在训练时并不是对所有的 7 × 7 × 7 7 \times 7 \times 7 7×7×7 网格进行反向传播(因为许多网格中并没有抓取对象),而是只对热力图通道中包含抓取目标的网格进行反向传播

3. 实验和评价

你可能感兴趣的:(计算机视觉)