CTPN model

这篇文章解析以下CTPN的模型结构。
不多说,先上代码,用的是tensorflow1中的slim库。

def model(image):
    image = mean_image_subtraction(image)
    
    with slim.arg_scope(vgg.vgg_arg_scope()):
        conv5_3 = vgg.vgg_16(image)

    rpn_conv = slim.conv2d(conv5_3, 512, 3)

    lstm_output = Bilstm(rpn_conv, 512, 128, 512, scope_name='BiLSTM')

    bbox_pred = lstm_fc(lstm_output, 512, 10 * 4, scope_name="bbox_pred")
    cls_pred = lstm_fc(lstm_output, 512, 10 * 2, scope_name="cls_pred")

    cls_pred_shape = tf.shape(cls_pred)
    cls_pred_reshape = tf.reshape(cls_pred, [cls_pred_shape[0], cls_pred_shape[1], -1, 2])

    cls_pred_reshape_shape = tf.shape(cls_pred_reshape)
    cls_prob = tf.reshape(tf.nn.softmax(tf.reshape(cls_pred_reshape, [-1, cls_pred_reshape_shape[3]])),
                          [-1, cls_pred_reshape_shape[1], cls_pred_reshape_shape[2], cls_pred_reshape_shape[3]],
                          name="cls_prob")

    return bbox_pred, cls_pred, cls_prob

然后我们一句句来看。

image = mean_image_subtraction(image)

这一句,是因为一般使用VGG,用的是在Imgnet上预训练好的,需要减去Imgnet上图片的均值,做数据特征标准化。

with slim.arg_scope(vgg.vgg_arg_scope()):
        conv5_3 = vgg.vgg_16(image)

这一步得到VGG16提取的特征图,取的是conv5_3那一层。

rpn_conv = slim.conv2d(conv5_3, 512, 3)

这一句进行卷积核大小是3,步长为1的卷积进一步提取特征。

lstm_output = Bilstm(rpn_conv, 512, 128, 512, scope_name='BiLSTM')

这一步将上面得到的特征输入到一个双向的LSTM中。BiLSTM函数后面会进一步解析。

bbox_pred = lstm_fc(lstm_output, 512, 10 * 4, scope_name="bbox_pred")
cls_pred = lstm_fc(lstm_output, 512, 10 * 2, scope_name="cls_pred")

这两句是将LSTM层的得到的结果输入到全连接层得到最终输出。
其中bbox_pred得到的是检测框中心点坐标x,y的偏移以及宽和高的偏移。这里其实和原论文中描述的不一样,这份代码是根据Faster RCNN改过来的。原论文中,不需要预测x的偏移以及w的偏移,因为在CTPN设计的时候w固定死了为16个像素(因为vgg提取的特征图大小是原图1/16),x就是特征图上的点映射到原图上的区域的中心点的x坐标。所以原CTPN只需要预测y的偏移以及h的偏移就好了。当然像这里这么做也有好处,之后会提到,有side-refinement的作用。
cls_pred得到的是这个框中 文本/非文本的得分(置信度)。也就是是文本的可能性和不是文本的可能性。

cls_pred_shape = tf.shape(cls_pred)
cls_pred_reshape = tf.reshape(cls_pred, [cls_pred_shape[0], cls_pred_shape[1], -1, 2])

cls_pred_reshape_shape = tf.shape(cls_pred_reshape)
cls_prob = tf.reshape(tf.nn.softmax(tf.reshape(cls_pred_reshape, [-1, cls_pred_reshape_shape[3]])),
                          [-1, cls_pred_reshape_shape[1], cls_pred_reshape_shape[2], cls_pred_reshape_shape[3]],
                          name="cls_prob")

这些操作是为了计算 文本/非文本的概率。主要是为了使用softmax,所以需要先对cls_pred进行reshape,然后再reshape回去。最后cls_prob就是 文本/非文本的概率。
下面介绍解析Bilstm函数,具体可以看注解。

def Bilstm(net, input_channel, hidden_unit_num, output_channel, scope_name):
    # width--->time step
    with tf.variable_scope(scope_name) as scope:
        # reshape 输入
        shape = tf.shape(net)
        N, H, W, C = shape[0], shape[1], shape[2], shape[3]
        net = tf.reshape(net, [N * H, W, C])
        net.set_shape([None, None, input_channel])
        # 声明前向LSTM lstm_fw_cell 和后向LSTM lstm_bw_cell 
        lstm_fw_cell = tf.contrib.rnn.LSTMCell(hidden_unit_num, state_is_tuple=True)
        lstm_bw_cell = tf.contrib.rnn.LSTMCell(hidden_unit_num, state_is_tuple=True)
        # 建立双向LSTM
        lstm_out, last_state = tf.nn.bidirectional_dynamic_rnn(lstm_fw_cell, lstm_bw_cell, net, dtype=tf.float32)
       # concat LSTM的输出
        lstm_out = tf.concat(lstm_out, axis=-1)
        # reshape LSTM的输出,为了之后输入到全连接层
        lstm_out = tf.reshape(lstm_out, [N * H * W, 2 * hidden_unit_num])
        
        # 这里建立全连接层,初始化weight,biases
        init_weights = tf.contrib.layers.variance_scaling_initializer(factor=0.01, mode='FAN_AVG', uniform=False)
        init_biases = tf.constant_initializer(0.0)
        weights = make_var('weights', [2 * hidden_unit_num, output_channel], init_weights)
        biases = make_var('biases', [output_channel], init_biases)

        outputs = tf.matmul(lstm_out, weights) + biases
         # 全连接结束, 再reshape回去
        outputs = tf.reshape(outputs, [N, H, W, output_channel])
        return outputs

论文中其实还提到了side-refinement。这个东西是用来修正文本行的边界,这里没有实现,作者提供的caffe代码也没有实现(甚至没有训练代码)。但是这里我们预测框的时候对框的水平位置和宽度也进行了修正,所以这也起来了side-refinement的作用。

到这里model就解析完了,之后是reshape的细节,不感兴趣的可以不看。

先介绍一下tf.reshape()函数。 tf.reshape(输入,[reshape之后的维度])。
首先一般图像输入都是四维的 NHW*C,N代表几张图片也就是batch_size,W的图片的宽度,H的图片的高度,C是图片的通道数。各个模型这几维的排列顺序可能不同。
还有一个地方,四个维度中如果有一个填的是-1,那代表的意思就是这个维度是多少是自动计算的。还有就是因为tensorflow是静态图,所以你在运行的时候如果想得到shape只能调用tf.shape()。
之前我们得到的cls_pred是 文本/非文本的得分,我们需要的是 文本/非文本的概率,那么自然而然就想到用softmax。比如说 文本/非文本分数是 [3,1],那么softmax之后应该是[0.5 , 0.5],softmax在这里就不介绍了,具体的可以看这个。https://www.jianshu.com/p/4666213d20c7](https://www.jianshu.com/p/4666213d20c7
这里想用tf.nn.softmax,默认计算输入张量的最后一个维度。那我们就需要把我们之前得到的cls_pred reshape成最后一个维度是 文本/非文本 得分,也就是说最后一个维度大小是2。

cls_pred_reshape = tf.reshape(cls_pred, [cls_pred_shape[0], cls_pred_shape[1], -1, 2])
tf.reshape(cls_pred_reshape, [-1, cls_pred_reshape_shape[3]])

上面两句话完成了这一部分工作。

tf.nn.softmax(tf.reshape(cls_pred_reshape, [-1, cls_pred_reshape_shape[3]]))

上面的代码,对reshape之后的张量进行softmax操作

 tf.reshape(tf.nn.softmax(tf.reshape(cls_pred_reshape, [-1, cls_pred_reshape_shape[3]])),
                          [-1, cls_pred_reshape_shape[1], cls_pred_reshape_shape[2], cls_pred_reshape_shape[3]],
                          name="cls_prob")

最后再reshape回去。

你可能感兴趣的:(CTPN model)