CRAFT:基于字符区域感知的文本检测

论文地址:https://arxiv.org/abs/1904.01941

摘要

         最近出现了一些基于神经网络的场景文本检测方法,并展现了其可观的结果。以前的方法使用严格的word-level边界框进行训练,在表示任意形状的文本区域时会有所限制。在本文中,我们提出了一种新的场景文本检测方法,通过探索每个字符和字符之间的亲和力(affinity)来有效地检测文本区域。为了克服缺乏character-level注释的缺点,我们提出的框架利用了给定synthetic images以character-level注释以及通过中间模型的学习来估计的真实图像的character-level  ground-truths。为了估计字符之间的亲和力(affinity),我们使用新提出的关联性表示来训练网络。本文在六项基准上拓展试验,包括含有自然图像中的高度弯曲文本的TotalText和CTW-1500数据集,实验结果表明我们的character-level文本检测明显优于最先进的检测器。根据结果,我们提出的方法保证了检测复杂场景文本图像(如任意形状的,弯曲的或变形的文本)的高度灵活性。

1、介绍

         场景文本检测由于它的众多应用(如即时翻译,图像检索,场景解析,地理位置和盲导航),使其在计算机视觉领域引起了很大的关注。近来,一些基于深度学习的场景文本检测方法显示了其处理可观的表现。这些方法主要通过定位word-level边界框来训练他们的网络。但是用这些方法可能会遇到一些棘手的情况,例如弯曲,变形或极长的文本,都是很难使用单个边框检测到的。而且,通过以自下而上的方式来连接连续的字符以处理具有挑战性的文本时,character-level感知具有许多优点。不幸的是,大多数现有的文本数据集都没有提供character-level注释,而获得character-level ground truths所需的工作成本太高。

         在本文中,我们提出了一个新颖的检测器去定位单个字符区域,然后连接检测到的字符以形成一个文本实例。我们的框架CRAFT使用CNN,产生字符的 region score和affinity score。其中 region score用来定位图像中的单个字符,affinity score把每一个字符进行分组到单个实例中。为了补偿character-level注释的缺点,我们提出了一个弱监督学习框架,使用存在真实word-level的数据集来估计character-level ground-truths。

         图1是CRAFT在各种形状的文本上的可视化结果。利用字符区域感知,各种形状的文本很容易表示。我们在ICDAR数据集上进行了大量实验来验证我们的方法,实验表明,提出的方法优于最新的文本检测器。在MSRA-TD500,CTW-1500和TotalText数据集上的实验结果显示了我们提出方法在复杂情况下(如长的、弯曲的、任意形状的文本情况)的高度灵活性。

图1  使用CRAFT方法的字符级文本检测结果

【注:a) 使用本文所提出框架的预测热力图;b) 不同形状下的文本检测结果】       

2、相关工作

         在深度学习出现之前,场景文本检测的主要趋势是自下而上的,且大多数使用手工提取特征(例如MSER 或 SWT)作为基础的组件。近年来,通过采用流行的物体检测/分割方法,如SSD,Faster R-CNN和FCN,提出了基于深度学习的文本检测器。

         基于回归的文本检测器   各种使用边框回归的文本检测器都是从已经提出的流行的目标检测器改动来的。与一般的目标不同,文本通常以具有各种宽高比的不规则形状呈现。 为了解决这个问题,TextBoxes 修改了卷积内核和anchor,以有效地捕获各种文本形状。 DMPNet试图通过结合四边形滑动窗口来进一步减少这个问题。 最近,Rotation-Sensitive Regression Detector (RSDD) 提出旋转卷积核,充分利用旋转不变特征。 然而,在使用这些方法时,获取自然场景下的所有形状时会有一些结构限制。

         基于分割的文本检测器   另一种常见的方法是基于分割的相关项目,其目的是在像素级寻找文本区域。这些方法通过估计word边界区域来检测文本,例如多尺度FCN,Holistic-prediction和PixelLink,也已经提出使用分割作为其基础。SSTD试图通过使用注意机制通过减少特征级别的背景干扰来增强文本相关区域,从而利用回归和分割方法。最近,TextSnake 提出通过预测文本区域和中心线以及几何属性来检测文本实例。

         端到端的文本检测器   端到端方法同时训练检测和识别模块,是利用识别结果来提高检测精度的。FOTS 和EAA 结合了流行的检测和识别方法,并以端到端的方式对它们进行训练。Mask TextSpotter 利用其统一模型将识别任务视为语义分割问题。显然,采用识别模块进行训练使文本检测器对像文本的背景噪点更具有鲁棒。

​        大多数方法以单词为单位检测文本,但是对检测单词的范围的定义非常重要的,因为单词可以通过各种标准分隔,例如含义,空格或颜色。另外,不能严格定义分词的边界,因此词段本身没有明显的语义含义。对于回归和分割方法,单词注释的模糊性淡化了ground-truth的含义。

        字符级别的文本检测器   Zhang 等人提出了一种使用 MSER 提取文本块候选的character level检测器。它使用MSER识别单个字符,限制了它在某些情况下的检测鲁棒性,例如低对比度,曲率和光反射的场景。Yao使用了带有文本单词区域图的字符预测图和需要character- level注释的各个方向连接图。Seglink 不是一个明晰的字符级别预测,而是搜索文本网格(部分文本片段)并将这些片段与其他连接预测相关联。即使Mask TextSpotter 预测了字符级概率图,它也被用于文本识别而不是识别单个字符。


    这项工作的灵感来自WordSup的想法,它使用弱监督框架来训练字符级别的检测器。然而,Wordsup的一个缺点是用矩形anchor来表示字符,使其易受由各种摄像机视角引起的字符的透视变形的影响。此外,它受骨架结构性能的限制(使用SSD并受anchor数量及其尺寸的限制)。


3、方法

         我们的主要目的是精确地定位自然图像中的每一个字符。为此,我们训练了一个深度神经网络去预测字符region和字符之间的affinity。由于没有可用的公共字符集数据集,因此采用弱监督的方式训练模型。

3.1 结构

        基于VGG-16的全卷积神经网络作为主干网络。本文的模型在解码部分中跳过连接,这类似于U-net,因为它聚合了低级特征。最终的输出有两个通道作为score map:region score 和 affinity score。网络架构在图2中展示。


图2  网络结构示意图

3.2 训练

3.2.1 Ground Truth Label的生成

        对于每一张图像,我们为了带有字符级别边界框的的region score 和 affinity score 生成 ground truth label。region score 表示给定的像素是字符中心的概率,affinity score 表示相邻两个字符中间空白区域中心的概率。

       不像二进制分割图那样用离散方式标记每个像素,本文使用高斯热图对字符中心的概率进行编码。该热图表示法由于它在处理非严格限制的ground truth 区域时具有高度的灵活性已经用于其他应用,例如姿势估计项目。因此,我们使用热图表示region score和 affinity score。

         图3 总结了一个合成图像的 label 生成流程。直接计算在边界框中的每一个像素的高斯分布值是非常耗时的。由于图像上的字符边界框通常通过透视投影扭曲,所以我们使用以下的步骤来近似生成 region score 和 affinity score的 ground truth:1)准备一个二维各向同性高斯映射;2)计算高斯图区域和每个字符框之间的透视变换;3)把高斯图映射到字符框区域。

     对于affinity score的 ground truth,亲和(affinity)框是通过相邻字符框定义的,如图3所示。通过连接每个字符框的对角画出对角线,生成两个三角形(我们将其成为上下三角形)。然后,对于每对相邻字符框,通过将上下三角形的中心设置为框的角来生成affinity box。

       尽管使用了小的感受野,但提出的 ground truth 定义使模型能够充分检测大的或长的文本实例。另外,像先前基于边框回归方法在这种情况下需要大的感受野,我们的字符级检测使得卷积核可以仅关注字符内和字符间,而不是整个文本实例。


图3 region score 和 affinity score 的GT生成 | 由一个带有character level注释的synthetic image生成GT标签

3.2.2 弱监督学习

       与synthetic数据集不同,数据集中的真实图像通常是word-level注释。 在这里,我们以弱监督的方式令每个word-level注释生成character box,如图4所示。当提供具有word-level注释的真实图像时,中间模型学习了预测裁剪的单词图像的字符region score 以生成字符级边界框。为了反映中间模型预测的可靠性,每个单词框上的置信度图的值为检测到的字符数除以ground truth字符的数量,该比值用于学习训练期间权重。


图4  整体训练流程 | 利用弱监督学习对real和synthetic图像完成训练

        图6显示了字符分割的整个过程。首先,从原始图像裁剪word level图像。 接下来,用最新训练的模型预测region score。 第三,用分水岭算法分割character regions,并使字符边界框覆盖区域。最后,使用来自裁剪步骤的逆变换将字符框的坐标变换(映射)回原始图像坐标。region score 和 affinity score 的 pseudo-ground truths(pseudoGTs)可以通过图3中描述的步骤使用获得的四边形字符级边界框生成。

    当使用弱监督训练模型时,我们被迫训练不完整的 pseudo-GTs。如果使用不准确的region score训练模型,则输出可能在character region内模糊。为了防止这种情况,我们去衡量模型生成的每个 pseudo-GTs的质量。幸运的是,文本注释中有一个非常有用的线索,即单词长度。 在大多数数据集中,提供了单词的转录,并且单词的长度可用于评估pseudo-GTs 的置信度。

       对于训练数据的word- level注释样本w, 让R(w)和l(w)分别代表样本w的边框区域和单词长度。根据字符分割流程,我们可以获得估计的字符边界框和他们相应的字符长度lc(w)。然后样本ww的置信分数sconf(w)​可以这样计算,

一张图像的像素级置信图Sc可以这样计算,

其中p代表在区域R(w)中的像素。目标L定义为,

        其中S∗r(p)和S∗a(p)分别代表 region score 和 affinity map 的 pseudo-ground truth ,Sr(p)和Sa(p)分别表示预测的 region score和 affinity score。使用合成数据训练时,我们可以获得真的ground truth,所以Sc(p)设置为1。

图5 训练期间的character region score map

       随着训练的进行,CRAFT模型可以更准确地预测字符,并且置信度得分sconf​(w)也逐渐增加。图5 显示了训练期间的字符score map。在训练的早期,对于自然图像中不熟悉的文本,region score相对较低。该模型会学习新文本的外观(例如不规则字体),以及与 SynthText 数据集具有不同数据分布的合成文本。

       如果置信分数sconf(w)低于0.5,估计的字符边界框应该忽视,因为在训练模型时,他们会产生不良影响。在这种情况下,我们假设单个字符的宽度是常数,并通过简单地将词区域R(w)除以字符数l(w)来计算字符级预测。然后,sconf​(w)​设置为 0.5 学习看不见的文本。


图6  完成从word-level注释到character-level的字符分割流程

3.3 推理

       在推理阶段,最终的输出可以以各种形状传递,例如单词框或者字符框,以及其他多边形。对于像ICDAR这种数据集,评估方法是单词级IoU,所以接下来我们描述怎样通过一个简单且有效的后处理步骤把预测的Sr​​​和Sa生成单词级的边框QuadBox​​。

      生成边框的后处理总结如下。首先,覆盖图像的二进制图M初始化为0。如果Sr(p)>τr​或者Sa(p)>τa​则M(p)设置为1,其中τr​是region阈值,τa​是affinity阈值。第二,在M上使用连通区域标记法(Connected Component Labeling,CCL)。最后,在封闭的最小区域连接对应于每个标签的组件,通过找到旋转的矩形来获得QuadBox。像OpenCV的函数connectedComponents和minAreaRect都可以在这里使用。

    请注意,CRAFT的一个优点是它不需要任何进一步的后处理方法,如非极大抑制(NMS)。因为我们有通过CCL分隔word区域,因此单词的边界框仅由单个封闭的矩形框定义。另一方面,我们的字符连接过程是在像素级进行的,这与其他依赖于明确地搜索文本组件之间的关系的连接方法不同。

   此外,我们可以围绕整个字符区域生成多边形,以有效地处理曲线文本。多边形框生成的过程如图7所示。第一步是沿扫描方向找到字符区域的局部最大值线,如图中的蓝色箭头。局部最大线的长度被同时设置为它们中的最大长度,以防止最终的多边形结果变得不均匀。连接全部局部最大线的中点的线是中心线,在图中为黄色。然后旋转局部最大线以垂直于中心线,反映字符的倾斜角度,图中为红色。局部最大值线的端点是文本多边形的控制点的候选点。为了完全覆盖文本区域,我们沿着局部最大中心线向外移动两个最外边的倾斜的局部最大值线,形成最终控制点(绿点)。

图7 任意形状文本的多边形生成

4、实验

4.1 数据集

ICDAR2013(IC13)是在ICDAR 2013 Robust Reading Competition竞赛中对于场景文本检测提出的,包含高分辨率图像,229张训练图像和233张测试图像,包含英文文本。注释是单词矩形框。

ICDAR2015(IC15)是在ICDAR 2015 Robust Reading Competition竞赛中附带的场景文本检测提出的,包含1000张训练图像和500张测试图像,都包含英文文本。注释是单词四边形框。

ICDAR2017(IC17)包含7200张训练图像,1800张验证图像,9000张测试图像,有9种语言的多语言场景文本检测。与IC15类似,在IC17中的文本区域也是通过4个顶点的四边形注释的。

MSRA-TD500(TD500)包含500张自然图像,分为300张训练图像和200张测试图像,由相机在室内和室外收集。图像包含英文和中文。 文本区域由旋转的矩形注释。

TotalText(TotalText)最近在ICDAR 2017上展出,包含1255个训练和300个测试图像。 它特别提供了弯曲的文本,这些文本有多边形和词级转录注释。

CTW-1500(CTW)包含1000张训练和500张测试图像。每一张图像都有弯曲文本实例,通过14个点的多边形注释。

4.2 训练策略

        训练流程包括两步:首先使用SynthText 数据集训练50K个迭代,然后采用每个基准数据集来微调模型。在ICDAR 2015和ICDAR2017中的一些“DO NOT CARE”文本区域通过设置sconf(w)=0进行忽视。在全部的训练中使用 ADAM优化器。对于多GPU训练,训练和监督GPU是分开的,由监督GPU生成的 pseudo-GTs 存储在内存中。在微调期间,SynthText数据集也以1:5的比率使用,以确保字符区域肯定是分开的。为了滤除自然场景中的纹理文本,以1:3的比例使用在线硬负挖掘(On-line Hard Negative Mining)。此外,还应用了基本数据增强技术,如裁剪,旋转和/或颜色变化。

       弱监督训练需要两种类型的数据;一种是含有用于裁剪单词图像的四边形注释信息的,另一种是含有用于计算单词长度的转录信息的。满足这些条件的数据集是IC13,IC15和IC17。其他数据集(如MSRA-TD500,TotalText和CTW-1500)不符合要求。MSRA-TD500不提供转录,而TotalText和CTW-1500仅提供多边形注释。因此,我们仅在ICDAR数据集上训练CRAFT,并在没有微调的情况下对其他数据集进行测试。使用ICDAR数据集训练两种不同的模型。第一个模型在IC15上进行训练,仅评估IC15。第二个模型同时在IC13和IC17上进行训练,用于评估其他五个数据集。没有额外的图像用于训练。 微调的迭代次数设置为25k。

4.3 实验结果

四边形数据集(ICDAR和MSRATD500)所有实验均以单一图像分辨率进行。 IC13,IC15,IC17和MSRA-TD500中图像的较长边分别调整为960,2240,2560和1600。表1列出了ICDAR和MSRA-TD500数据集上各种方法的 h-mean 得分。为了与端到端方法进行公平比较,我们通过参考原始论文仅获取其检测结果。我们在所有数据集上实现了最先进的表现。此外,由于简单而有效的后处理,CRAFT在IC13数据集上的运行速度为8.6 FPS,相对较快。

    对于MSRA-TD500,提供的是行注释,包括框中单词之间的空格。 因此,需要组合单词框的后处理步骤。如果一个框的右侧和另一个框的左侧足够接近,则将两个框组合在一起。即使没有在TD500训练集上进行微调,CRAFT仍然优于表1所示的所有其他方法。

表1 四边形注释框数据集的实验结果

多边形数据集(TotalText和CTW-1500)在TotalText和CTW-1500上直接训练模型是一项挑战,因为它们的注释形状为多边形,这使得在弱监督训练期间字符分割过程中的文本区域裁剪变得复杂化。因此,我们只使用了IC13和IC17的训练图像,并且没有进行微调以学习这些数据集提供的训练图像。在推理步骤中,我们使用region score通过后处理生成的多边形来应对提供的多边形类型注释。

     这些数据集的实验也是以单一图像分辨率执行的。 TotalText和CTW-1500中图像的较长边分别调整为1280和1024。多边形数据集的实验结果如表2所示。与其他方法相比,CRAFT的字符定位能力使我们能够在检测任意形状的文本方面体现更强大和更优越的性能。特别地,TotalText数据集具有各种变形,包括如图8所示的弯曲文本,对于这些变形,基于四边形的文本检测器的推断是不可行的。因此,在这些数据集上可以用来评估的方法非常有限。

     在CTW-1500数据集的情况下,有两个难点,即提供的是行注释和任意形状的多边形。为了在这种情况下帮助CRAFT的进行,我们把称之为LinkRefiner的小型连接细化网络与CRAFT结合使用。LinkRefiner的输入是regoin score,affinity score 和CRAFT的中间 feature map 的拼接,输出是针对长文本调整的refined affinity score(精确亲和力分数)。为了组合字符,使用 refined affinity score 代替原始的affinity score,然后生成多边形的方式与TotalText生成多边形的方式相同。固定住CRAFT,只在CTW-1500数据集上训练LinkRefiner。 LinkRefiner的详细实现在补充材料中。如表2所示,所提出的方法实现了最先进的性能。

表2  多边形注释框数据集的实验结果
图8 在TotalText数据集上的实验结果

4.4 讨论

尺度变化的鲁棒性   虽然文本的大小非常多样化,但我们仅在所有数据集上进行单尺度实验。这与大多数其他方法不同,他们依靠多尺度测试来处理尺度变化问题。这个优势源于我们方法是定位单个字符而不是整个文本,故相对较小的感受野也足以覆盖大图像中的单个字符,这使得CRAFT在检测尺度变化文本时具有鲁棒性。

多语言问题    IC17数据集包含孟加拉语和阿拉伯语字符,这些字符未包含在SynthText 数据集中。 而且,两种语言都难以单独分割成字符,因为每个字符都是很草地写成的。因此,我们的模型无法区分孟加拉语和阿拉伯语,以及拉丁语,韩语,中文和日语。在东亚字符的情况下,它们可以很容易地以恒定的宽度分开,通过弱监督训练便能体现模型的高性能。

与端到端方法的比较    我们的方法仅使用 ground truth 实例框进行检测,但结果与其他端到端方法相当,如表3所示。通过对失败案例的分析,我们期望我们的模型能够从识别结果中受益,特别是当 ground truth 词语被语义分离而不是视觉线索时。

泛化能力    我们的方法在3个不同的数据集上实现了最新的性能,无需额外的微调。这表明我们的模型能够捕获文本的一般特征,而不是过度拟合特定的数据集。

5、结论

         我们提出了一种名为CRAFT的新型文本检测器,它可以检测单个字符,即使没有给出chara-level annotation。 所提出的方法提供了字符 region score 和字符affinity score,它们一起以自下而上的方式完全覆盖各种文本形状。由于提供了字符级注释的真实数据集很少,我们提出了一种弱监督学习方法,可以从中间模型生成pseudo-ground truths。CRAFT在大多数公共数据集上展示了最先进的性能,并显示这些性能无需通过微调也具有泛化能力。作为我们未来的工作,我们希望使用端到端方式的识别模型训练我们的模型,以了解CRAFT的性能、鲁棒性和普遍性,且它是否能转化为更通用的场景文本定位系统。


补充:CTW-1500数据集的 LinkRefiner

图9 LinkRefiner结构

         CTW-1500数据集只提供了多边形注释,没有文本transcription。而且只有line-level annotation,没有空格。这远非我们对affinity的假设,即对于在它们之间具有空格的字符,亲和力的分数为零。

        为了从检测到的字符中获取单个长的多边形,我们使用一个网络进行连接细化,即所谓的LinkRefiner。结构如图9所示。LinkRefiner的输入是region score 和 affinity score 和网络中间 feature map的拼接,中间feature map是原始CRAFT模型的Stage4的输出。采用ASPP来确保用于将字符和单词组合到统一文本行的大感受野。

   对于 LinkRefiner 的 ground truth,简单地在注释多边形的成对控制点的中心之间绘制线,这类似于中使用的文本线生成。每条线的宽度与成对控制点之间的距离成比例。LinkRefiner的ground truth生成如图10所示。这个模型的输出称为 link score。对于训练,固定CRAFT不变,只在CTW1500数据集上训练Linkrefiner。

   训练后,我们得到模型产生的输出,即region score,affinity score和 link score。link score被用来代替 affinity score,文本多边形完全通过与TotalText相同的过程获得。CRAFT模型定位单个字符,LinkRefiner模型将字符以及由空格分隔的单词组合在一起,用来做CTW1500评估。CTW-1500的结果如图11所示。通过所提出的方法成功地检测到有挑战的具有长文本和弯曲文本。此外,利用我们的多边形表示,可以将曲线图像校正为直文图像,这也在图11中示出。我们相信这种整改能力可以进一步用于识别任务。


图10 LinkRefiner的ground truth 生成


图11 CTW-1500数据集的实验结果

对于每一类,输入图像(上),region score(中左),link score(中右),弯曲文本的修正多边形结果(底部,箭头下方)。请注意,未在CTW-1500数据集中呈现亲和力分数并且未使用它们。

你可能感兴趣的:(CRAFT:基于字符区域感知的文本检测)