CRNN文字识别

OCR文字识别领域论文系列:

1️⃣CRNN:CRNN文字识别

2️⃣ASTER:ASTER文本识别详解


CRNN论文下载: 
An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition
CRNN论文翻译:

CRNN论文翻译——中英文对照


CRNN介绍:

近几年来,CRNN在计算机视觉文本识别领域取得不错成果。CRNN是一种卷积循环神经网络结构,用于解决基于图像的序列识别问题,特别是场景文字识别问题。CRNN网络实现了不定长验证结合CNN和RNN网络结构,使用双向LSTM循环网络进行时序训练,并在最后引入CTC损失函数来实现端对端的不定长序列识别,

CRNN网络结构:

CRNN文字识别_第1张图片

网络结构包含三部分,从下到上依次为:
(1)卷积层。作用是从输入图像中提取特征序列。
(2)循环层。作用是预测从卷积层获取的特征序列的标签(真实值)分布。
(3)转录层。作用是把从循环层获取的标签分布通过去重整合等操作转换成最终的识别结果。

1.卷积层

卷积:提取图像特征 池化:为了降维减少计算量

CRNN文字识别_第2张图片

CRNN卷积层由标准的CNN模型中的卷积层和最大池化层组成,自动提取出输入图像的特征序列。与普通CNN网络不同的是,CRNN在训练之前,先把输入图像缩放到相同高度(图像宽度维持原样),论文中使用的高度值是32。

论文中该CNN结构输出的特征图大小为   ,若输入图片高度为32,宽度为100,则特征图的大小为(1, 24, 512)。这个结果可以认为图片从左到右被分割成了24块,每块大小的 特征维度 为512。
提取的特征序列中的向量是从特征图上从左到右按照顺序生成的,每个特征向量表示了图像上一定宽度上的特征,论文中使用的这 个宽度是1,就是单个像素。
特别强调序列的顺序是因为在之后的循环层中,先后顺序是LSTM训练中的一个重要参考量。

2.循环层

转录就是 RNN​ 对每个像素的预测转换为标签序列的过程。

CRNN文字识别_第3张图片

CRNN的循环层由一个双向LSTM循环神经网络构成,预测特征序列中的每一个特征向量的标签分布(真实结果的概率列表),循环层的误差被反向传播,最后会转换成特征序列,再把特征序列反馈到卷积层,这个转换操作由论文中定义的“Map-to-Sequence”自定义网络层完成,作为卷积层和循环层之间连接的桥梁。

LSTM(长短期记忆网络)则是一种特殊结构的RNN,用于解决RNN的长期依赖问题,普通RNN会出现“梯度消失”或“梯度爆炸”的问题,不能获取更多上下文信息,所以 CRNN 中使用的是 LSTM,允许捕获长距离依赖。LSTM单元由输入门、遗忘门和输出门组成。

CRNN文字识别_第4张图片

RNN原理参考:水很深的深度学习-Task05循环神经网络RNN_GoAl的博客-CSDN博客

LSTM原理参考:LSTM原理介绍_GoAl的博客-CSDN博客

3.转录层

转录是将LSTM网络预测的特征序列的所有可能的结果进行整合,转换为最终结果的过程。论文中在双向LSTM网络的最后连接上一个CTC模型,做 到端对端的识别。
CTC模型(Connectionist temporal classification)联接时间分类,CTC可以执行端到端的训练,不要求训练数据对齐和一一标注,直接输出不定长的序列结果。

CTC一般连接在RNN网络的最后一层用于序列学习和训练。对于一段长度为T的序列来说,每个样本点t(t远大于T)在RNN网络的最后一层都会输出一个softmax向量,表示该样本点的预测概率,所有样本点的这些概率传输给CTC模型后,输出最可能的标签,再经过去除空格(blank)和去重操作,就可以得到最终的序列标签。

CRNN完整网络结构图:

CRNN文字识别_第5张图片

从整个网络中可以看出,卷积层是由一系列的卷积、最大池化、批量归一化等操作组成,由标准的CNN模型中的卷积层和最大池化层组成,结构类似于VGG网络。

CRNN模型计算公式:

CRNN文字识别_第6张图片

CRNN模型计算详细流程:

CRNN文字识别_第7张图片

CRNN文字识别_第8张图片

4.CTC原理介绍

CTC是一种Loss计算方法,用CTC代替Softmax Loss,训练样本无需对齐。引入blank字符,解决有些位置没有字符的问题,通过递推,快速计算梯度。

CRNN文字识别_第9张图片

CRNN文字识别_第10张图片

以下以apple单词为例,引入“-”符号,解释CTC网络是如何展开路径进行计算的。 

CRNN文字识别_第11张图片

路径展开原则:(如图中5点)

CRNN文字识别_第12张图片

CTC训练流程和传统的神经网络类似,构建损失函数,然后根据BP算法进行训练,不同之处在于传统的神经网络的训练准则是针对每帧数据,即每帧数据的训练误差最小,而CTC的训练准则是基于序列的,比如最大化 p(l|x) ,序列化的概率求解比较复杂,因为一个输出序列可以对应很多的路径,所有引入前后向算法来简化计算。

前向概率:

CRNN文字识别_第13张图片

 后向概率:

CRNN文字识别_第14张图片

 计算CTC Loss:

CRNN文字识别_第15张图片

CRNN文字识别_第16张图片

CRNN文字识别_第17张图片

CTC原理参考:

一文读懂CRNN+CTC文字识别 - 知乎

【Learning Notes】CTC 原理及实现_丁丁的博客-CSDN博客_ctc实现

CTC(Connectionist Temporal Classification)介绍 - PilgrimHui - 博客园

5.CRNN模型训练:

在模型训练过程中,首先使用标准的CNN网络提取文本图像的特征,再利用BLSTM将特征向量进行融合以提取字符序列的上下文特征,然后得到每列特征的概率分布,最后通过转录层(CTC)进行预测得到文本序列。其具体模型训练流程为:

1.将输入图像统一缩放至32*W*3。
2.利用CNN提取后图像卷积特征,得到的大小为:1*W/4*512。
3.通过上述输入到LSTM提取序列特征,得到W/4*n后验概率矩阵。
4.利用CTC损失,实现标签和输出一一对应,进行训练。

6.CRNN+CTC总结

CRNN将CNN/LSTM/CTC三种方法结合:提供了一种end2end文本行图片算算法。

(1)CNN提取图像卷积特征

(2)LSTM进一步提取图像卷积特征中的序列特征

(3)引入CTC解决训练时字符无法对齐的问题

优点:

  • 可以直接从序列标签学习,不需要详细的标注
  • 具有直接从图像数据学习信息表现的DCNN的相同性质,既不需要手工特征也不需要预处理步骤,包括实体化/分割,组件定位等;
  • 具有 RNN 相同的性质,能够产生一系列标签
  • 对类序列对象的长度无约束,只需要在训练阶段和测试阶段对高度进行归一化
  • 比标准 DCNN​ 模型包含的参数要少的多,占用更少的存储空间

7.CRNN实战:

【AI实战】手把手教你文字识别(识别篇:LSTM+CTC, CRNN, chineseocr方法) - 雪饼的个人空间 - OSCHINA - 中文开源技术交流社区文字识别是AI的一个重要应用场景,文字识别过程一般由图像输入、预处理、文本检测、文本识别、结果输出等环节组成。 其中,文本检测、文本识别是最核心的环节。文本检测方面,在前面的文章中已介绍过了多种基于深...https://my.oschina.net/u/876354/blog/3070699

你可能感兴趣的:(深度学习,CV方向,深度学习,CRNN,lstm,ctc,CNN)