Pointnet网络结构与代码解读

前言

Pointnet开创性地将深度学习直接用于三维点云任务。由于点云数据的无序性,无法直接对原始点云使用卷积等操作。Pointnet提出对称函数来解决点的无序性问题,设计了能够进行分类和分割任务的网络结构,本文结合源码与个人的理解对于T-net网络和对称函数进行分析。

点的无序性

针对点的无序性问题实际上是文章提出了三个方案:

  • 对于无序点集进行排序(Pointcnn)。
  • 把点集当做序列进行处理,但是这种方法需要对输入点集做所有的排列变换进行数据增强。
  • 使用对称函数,Pointnet使用的就是这种方法。

Pointnet网络主要使用对称函数解决点的无序性问题,对称函数就是指对输入顺序不敏感的函数。如加法、点乘、max pooling等操作。假设输入特征为NxD, N N N表示点数, D D D表示维度数,在max pooling作用下,取出每个维度上最大值的1xD的向量,每一维特征都与其顺序无关,这样便保证了对于点云输入顺序的鲁棒性。

点云的旋转不变性

Pointnet的解决方法是学习一个变换矩阵 T T T,即 T − N e t T-Net TNet结构。由于loss的约束,使得 T T T矩阵训练会学习到最有利于最终分类的变换,如把点云旋转到正面。论文的架构中,分别在输入数据后和第一层特征中使用了 T T T矩阵,大小为3x3和64x64。其中第二个T矩阵由于参数过多,考虑添加正则项,使其接近于正交矩阵,减少点云的信息丢失。

1. T-Net网络结构

将输入的点云数据作为nx3x1单通道图像,接三次卷积和一次池化后,再reshape为1024个节点,然后接两层全连接,网络除最后一层外都使用了ReLU激活函数和批标准化(batch normalization)。

论文中的T-net网络的实际结构并不复杂,我根据个人理解画出T-net的结构。
Pointnet网络结构与代码解读_第1张图片
实际训练过程中,T矩阵的参数初始化使用单位矩阵(np.eye(K)), 参数会随着整个网络的训练进行更新,并不是提前单独训练的。很多文章提到T-Net对特征进行对齐,保证了模型的对特定空间转换的不变性,我其实不太理解这种说法。

实际上通过网络结构看出T-net结构是一个mini的Pointnet做特征提取,是个弱监督学习设计,我理解为需要训练一个矩阵对输入点(或者深层特征)进行坐标变换,个人认为这样的设计实际上是可以保留原始点云的部分特征,为后面的concat操作提供更多特征。源码中在点云分类部分使用到了 T − n e t T-net Tnet,点云分割部分可以不用,对结果并没有太大的提升,原因在于pointnet结构自身不能学到点云点的局部联系,因此即使加入类似结构的T-net也是一样。

  • models/transform_nets.py中的网络实现
def input_transform_net(point_cloud, is_training, bn_decay=None, K=3):
    """ Input: BxNx3 
    	B=batch size;N=number of pointcloud
        Output: 3x3 matrix
    """
    batch_size = point_cloud.get_shape()[0].value
    num_point = point_cloud.get_shape()[1].value

    input_image = tf.expand_dims(point_cloud, -1) # 扩展一维表示通道C,BxNx3x1
    # 输入BxNx3x1
    # 64个1x3卷积核 (参数[1,3]定义)
    # 移动步长 1x1 (stride=[1,1]定义)
    # 输出 BxNx1x64
    net = tf_util.conv2d(input_image, 64, [1,3],
    padding='VALID', stride=[1,1],
    bn=True, is_training=is_training,
    scope='tconv1', bn_decay=bn_decay)
    # 输入 BxNx1x64
    # 128个 1x1 卷积核
    # 步长 1x1
    # 输出 BxNx1x128
    net = tf_util.conv2d(net, 128, [1,1],
    padding='VALID', stride=[1,1],
    bn=True, is_training=is_training,
    scope='tconv2', bn_decay=bn_decay)
    # 输入 BxNx1x128
    # 1024个 1x1卷积核
    # 输出 BxNx1x1024
    net = tf_util.conv2d(net, 1024, [1,1],
    padding='VALID', stride=[1,1],
    bn=True, is_training=is_training,
    scope='tconv3', bn_decay=bn_decay)
    
    # 池化操作
    # 输入 BxNx1x1024
    # 输出 Bx1x1x1024
    net = tf_util.max_pool2d(net, [num_point,1],
    padding='VALID', scope='tmaxpool')
    # 输出 Bx1024
    net = tf.reshape(net, [batch_size, -1])
    
    # 全连接层
    # 输入 Bx1024
    # 权重矩阵 1024x512
    # 偏置 512x1
    # 输出 Bx512
    net = tf_util.fully_connected(net, 512, bn=True, is_training=is_training,
    scope='tfc1', bn_decay=bn_decay)
    # 全连接
    # 输出 Bx256
    net = tf_util.fully_connected(net, 256, bn=True, is_training=is_training,
    scope='tfc2', bn_decay=bn_decay)
    
    # 再次使用全连接,不加ReLU和BN
    # 输出 Bx9
    with tf.variable_scope('transform_XYZ') as sc:
        assert(K==3)
        weights = tf.get_variable('weights', [256, 3*K],
                                  initializer=tf.constant_initializer(0.0),
                                  dtype=tf.float32)
                                  biases = tf.get_variable('biases', [3*K],
                                  initializer=tf.constant_initializer(0.0),
                                  dtype=tf.float32)
        #初始化为3x3单位矩阵
        biases += tf.constant([1,0,0,0,1,0,0,0,1], dtype=tf.float32)
        transform = tf.matmul(net, weights)
        transform = tf.nn.bias_add(transform, biases)

    # reshape
    # 输出 Bx3x3
    transform = tf.reshape(transform, [batch_size, 3, K])
    return transform

针对64x64的网络设计与3x3的一样,只是改变了K值,对于文章提到让特征转化矩阵接近正交化,这样特征损失更小,这部分的实现是在分类任务对损失函数加入正则项,及添加权重reg_weight=0.001,下文分析中会标出。

2. 点云分类部分

这部分主要分析训练代码和点云分类模型的设计

  • train.py
# 参数输入处理
parser = argparse.ArgumentParser()
parser.add_argument('--gpu', type=int, default=0,
        help='GPU to use [default: GPU 0]')
parser.add_argument('--model', default='pointnet_cls',
        help='Model name: pointnet_cls or pointnet_cls_basic [default: pointnet_cls]')
parser.add_argument('--log_dir', default='log', help='Log dir [default: log]')
parser.add_argument('--num_point', type=int, default=1024,
        help='Point Number [256/512/1024/2048] [default: 1024]')
parser.add_argument('--max_epoch', type=int, default=250,
        help='Epoch to run [default: 250]')
parser.add_argument('--batch_size', type=int, default=32,
        help='Batch Size during training [default: 32]')
parser.add_argument('--learning_rate', type=float, default=0.001,
        help='Initial learning rate [default: 0.001]')
parser.add_argument('--momentum', type=float, default=0.9,
        help='Initial learning rate [default: 0.9]')
parser.add_argument('--optimizer', default='adam',
        help='adam or momentum [default: adam]')
parser.add_argument('--decay_step', type=int, default=200000,
        help='Decay step for lr decay [default: 200000]')
parser.add_argument('--decay_rate', type=float, default=0.7,
        help='Decay rate for lr decay [default: 0.8]')
FLAGS = parser.parse_args()
BATCH_SIZE = FLAGS.batch_size # 训练批次大小
NUM_POINT = FLAGS.num_point # 训练点云点个数
MAX_EPOCH = FLAGS.max_epoch # 最大训练次数
BASE_LEARNING_RATE = FLAGS.learning_rate # 初始学习率
GPU_INDEX = FLAGS.gpu # 默认GPU使用数量
MOMENTUM = FLAGS.momentum # 初始学习率
OPTIMIZER = FLAGS.optimizer # 优化器
DECAY_STEP = FLAGS.decay_step # 衰变步长
DECAY_RATE = FLAGS.decay_rate # 衰变率

# some code ...
# 获取模型
pred, end_points = MODEL.get_model(pointclouds_pl, is_training_pl, bn_decay=bn_decay)

原始点云nx3与T-Net训练后得到的3x3旋转矩阵相乘后,可以理解为变换为一组新的坐标下的点云数据。

  • models/pointnet_cls.py中的代码
# 1.原始点云与3x3的T变换矩阵
with tf.variable_scope('transform_net1') as sc:
    transform = input_transform_net(point_cloud, is_training, bn_decay, K=3)
point_cloud_transformed = tf.matmul(point_cloud, transform)
input_image = tf.expand_dims(point_cloud_transformed, -1)

# 2.mlp(64,64):使用2次卷积
# 输入 Bxnx3x1
# 64个1x3卷积核
# 输出 Bxnx1x64
net = tf_util.conv2d(input_image, 64, [1,3],
                     padding='VALID', stride=[1,1],
                     bn=True, is_training=is_training,
                     scope='conv1', bn_decay=bn_decay)
# 输入 Bxnx1x64
# 输出 Bxnx1x64
net = tf_util.conv2d(net, 64, [1,1],
                     padding='VALID', stride=[1,1],
                     bn=True, is_training=is_training,
                     scope='conv2', bn_decay=bn_decay)

# 3.接64x64特征转换矩阵
with tf.variable_scope('transform_net2') as sc:
    transform = feature_transform_net(net, is_training, bn_decay, K=64)
end_points['transform'] = transform
# 将上一步的net Bxnx1x64压缩为 Bxnx64 和 T-Net的Bx64x64 相乘
net_transformed = tf.matmul(tf.squeeze(net, axis=[2]), transform)

# 4.接3次卷积和1次池化,对应图中的mlp(64,128,1024)+maxpool
pointnet_cls.py
# Bxnx64 扩展为 Bxnx1x64
net_transformed = tf.expand_dims(net_transformed, [2])

# 输入 Bxnx1x64
# 使用64个1x1卷积核
# 输出 Bxnx1x64
net = tf_util.conv2d(net_transformed, 64, [1,1],
                     padding='VALID', stride=[1,1],
                     bn=True, is_training=is_training,
                     scope='conv3', bn_decay=bn_decay)
# 输入 Bxnx1x64
# 使用128个1x1卷积核
# 输出 Bxnx1x128
net = tf_util.conv2d(net, 128, [1,1],
                     padding='VALID', stride=[1,1],
                     bn=True, is_training=is_training,
                     scope='conv4', bn_decay=bn_decay)
# 输入 Bxnx1x128
# 使用1024个1x1卷积核
# 输出 Bxnx1x1024
net = tf_util.conv2d(net, 1024, [1,1],
                     padding='VALID', stride=[1,1],
                     bn=True, is_training=is_training,
                     scope='conv5', bn_decay=bn_decay)

# Symmetric function: max pooling
# 输入 Bxnx1x1024
# 输出 Bx1x1x1024
net = tf_util.max_pool2d(net, [num_point,1],
                         padding='VALID', scope='maxpool')
# 输出 Bx1024
net = tf.reshape(net, [batch_size, -1]) 

# 5.全连接1 + dropout
# 输出 batch_size x 512
net = tf_util.fully_connected(net, 512, bn=True, is_training=is_training,
                              scope='fc1', bn_decay=bn_decay)
net = tf_util.dropout(net, keep_prob=0.7, is_training=is_training,
                      scope='dp1')
# 全连接2 + dropout
# 输出 batch_size x 256
net = tf_util.fully_connected(net, 256, bn=True, is_training=is_training,
                              scope='fc2', bn_decay=bn_decay)
net = tf_util.dropout(net, keep_prob=0.7, is_training=is_training,
                      scope='dp2')
# 全连接3
# 输出 batch_size x 40,因为ModelNet数据集有40个类别的模型
net = tf_util.fully_connected(net, 40, activation_fn=None, scope='fc3')
return net, end_points

# 6.使用交叉熵损失函数计算loss,对网络结构进行训练。
def get_loss(pred, label, end_points, reg_weight=0.001):
    """ 预测值pred: B*NUM_CLASSES,
        标签值label: B, """
    loss = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=pred, labels=label)
    classify_loss = tf.reduce_mean(loss)
    tf.summary.scalar('classify loss', classify_loss)

    # Enforce the transformation as orthogonal matrix
    transform = end_points['transform'] # BxKxK
    K = transform.get_shape()[1].value
    mat_diff = tf.matmul(transform, tf.transpose(transform, perm=[0,2,1]))
    mat_diff -= tf.constant(np.eye(K), dtype=tf.float32)
    mat_diff_loss = tf.nn.l2_loss(mat_diff) 
    tf.summary.scalar('mat loss', mat_diff_loss)
	#这里加入了reg_weight正则项,使得T-net部分获得的特征转移矩阵更接近与正交化
    return classify_loss + mat_diff_loss * reg_weight

#	模型优化器选择:adam
#	学习率初始值:0.001
# 	动量=0.9
# 	batch_size =32
# 	学习率每训练20个epochs后减半
#	GTX1080 ModelNet 需要3-6小时

对于pointnet_cls_basic.py没有使用T-net的点云分类,网络结构更容易理解,比加入T-net的结构性能略低。

3. 点云分割部分

  • 点之间的相关性问题

针对与分割物体上的问题与分类任务不同,分类任务中特征经过max pooling得到一维特征向量,它包含了全局信息,再经过全连接网络,得到1*K的k个类别预测得分即为分类结果。而分割任务中,需要对每一个点输出所属类别,使用类似二维图像分割的上采样过程(跳步连接skip-links)。Pointnet针对分割任务也使用了类似图像分割任务的,高层全局信息与底层局部特征结合的思想。

针对Pointnet论文作者提供的版本(Tensorflow)的源码如下:https://github.com/charlesq34/pointnet

对于pointnet源码其余部分的介绍不详细展开,根据个人理解将源码的结构与功能设计展示如下:

分割部分的代码实现主要在part_seg/(部件分割)和sem_seg/(场景分割)下。其中part_seg中底层局部特征与高层全局特征的连接**(concat)使用到了各层特征**。
Pointnet网络结构与代码解读_第2张图片
sem_seg/model.py场景分割中需要注意论文使用的S3DIS数据维度不再是3维而是更高的9维度(XYZ+RGB+相对于房间的标准化后的位置信息),针对特征连接部分使用高层全局特征(B*1024)接全连接降维到128,然后与高维特征自身做concat,不是采用论文中提到的方式。

而论文中提到的分割结构实际是在models/pointnet_seg.py中实现,即max pooling后的1D特征向量,使用tf.tile()复制n份(n个特征点),与之前网络得到的 n * 64特征矩阵分别concat。得到一个n(64+D)的特征矩阵,再经一系列的特征变换操作,得到每个点的分类结果。

结语

本文主要结合代码层面总结了pointnet网络的分类和分割任务的实现。主要是理解pointnet是如何做到直接从原始点云数据中提取高维特征,并且解决好点云的特性。实际上基于pointnet结构可以进行很多任务,比如点云配准,物体检测,3D重建,法向量估计等,只需要根据具体任务合理修改网络后几层的结构,利用好网络提取的高维特征。

针对pointnet存在的点与点之间相关性的缺失,在pointnet++中使用局部采样+分组+pointnet的结构进行解决,并考虑到了点云的稀疏性解决方案,之后很多深度学习的研究在此基础上展开,习惯上称为pointnet家族(point-wise MLP),比如Frustum,flowNet 3D,LSAnet,PAT等等。个人认为更高的准确度需要点云等3D数据与图像结合进行深度学习训练,将图像的高分辨率优势借鉴进来会有更好的效果。

源码地址:
1.原论文实现代码
https://github.com/charlesq34/pointnet
2.基于pytorch实现:
https://github.com/fxia22/pointnet.pytorch
https://github.com/yanx27/Pointnet_Pointnet2_pytorch

放上自己在谷歌的Colab上的gpu实现:在Colab上实现分类和Part_seg,选择GPU版本的Notebook,
挂载好自己的谷歌云盘(方便保存和加载训练数据),batch_size设置为32,数据集使用别人共享的Shapenet的数据集。
对于语义分割部分colab上的免费gpu满足不了,需要购买更高版本的配置。

你可能感兴趣的:(计算机视觉学习)