零基础入门CV赛事- 街景字符编码识别是Datawhale联合天池举办的CV入门学习赛,赛题以计算机视觉中字符识别为背景,要求选手预测真实场景下的字符识别,这是一个典型的字符识别问题。通过这道赛题可以引导大家走入计算机视觉的世界,主要针对竞赛选手上手视觉赛题,提高对数据建模能力。
赛题来源自Google街景图像中的门牌号数据集(The Street View House Numbers Dataset, SVHN),并根据一定方式采样得到比赛数据集。
训练集数据包括3W张照片,验证集数据包括1W张照片,每张照片包括颜色图像和对应的编码类别和具体位置;为了保证比赛的公平性,测试集A包括4W张照片,测试集B包括4W张照片。
对于训练数据每张图片将给出对于的编码标签,和具体的字符框的位置(训练集、测试集和验证集都给出字符位置),可用于模型训练:
Field | Description |
---|---|
top | 左上角坐标X |
height | 字符高度 |
left | 左上角最表Y |
width | 字符宽度 |
label | 字符编码 |
用[top,left]和[height,width]两组坐标就可以在图片中具体表示字符的位置和大小了。
评价标准为准确率,选手提交结果与实际图片的编码进行对比,以编码整体识别准确率为评价指标,结果越大越好,具体计算公式如下:
s c o r e = 编 码 识 别 正 确 的 数 量 测 试 集 图 片 数 量 score=\frac{编码识别正确的数量}{测试集图片数量} score=测试集图片数量编码识别正确的数量
数据标签用json.load()读取,下面的代码可以读取图片文件和标签文件,然后获取图像位置,再把框里的图像单独显示出来。
import json
train_json = json.load(open('../input/train.json'))
# 数据标注处理
def parse_json(d):
arr = np.array([
d['top'], d['height'], d['left'], d['width'], d['label']
])
arr = arr.astype(int)
return arr
img = cv2.imread('../input/train/000000.png')
arr = parse_json(train_json['000000.png'])
plt.figure(figsize=(10, 10))
plt.subplot(1, arr.shape[1]+1, 1)
plt.imshow(img)
plt.xticks([]); plt.yticks([])
for idx in range(arr.shape[1]):
plt.subplot(1, arr.shape[1]+1, idx+2)
plt.imshow(img[arr[0, idx]:arr[0, idx]+arr[1, idx],arr[2, idx]:arr[2, idx]+arr[3, idx]])
plt.title(arr[4, idx])
plt.xticks([]); plt.yticks([])
看到这个问题,我的第一个想法就是Faster R-CNN目标检测。但论文太长看不下去,在知乎上看到一篇很详细的Faster RCNN解析。学完这篇文章后,对Faster RCNN有了整体性的认识,但达不到空手编程的地步。扯远了。
后来我查文献找到了一篇Google自己解决这个问题的论文Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks
这个论文的核心就是多任务,卷积网络提取特征,多个全连接层分别预测出数字个数和每个数字的值。由于每张图片上数字个数不同,多出的用10表示空白。具体可以看论文。
Datawhale给出了三种思路:
定长字符识别就是Google那篇文章的思路。将赛题抽象为一个定长字符识别问题,在赛题数据集中大部分图像中字符个数为2-4个,最多的字符 个数为6个。
因此可以对于所有的图像都抽象为6个字符的识别问题,字符23填充为23XXXX,字符231填充为231XXX。
经过填充之后,原始赛题变为6个字符的分类问题。在每个字符的分类中会进行11个类别的分类,假如分类为填充字符,则表明该字符为空。
这个入门思路比Google的论文更简化了一点,去掉了预测数字个数的输出,但这个是baseline,目的是给选手更多的发挥空间。
在字符识别研究中,有特定的方法来解决此种不定长的字符识别问题,比较典型的有CRNN字符识别模型。
CRNN的结构是CNN-RNN-CTC,CNN提取特征,RNN预测出不太好的序列,CTC把不太准确的序列翻译成正确的词。详细可以看论文和大佬们的博客。
这种思路就要用到目标检测了,Faster R-CNN、YOLO等方法挺强。
因为数据集里给出了每个数字的位置框,这正是目标检测的保准数据格式,在我看来想拿名次,必定要走这个思路。
Faster RCNN有好多详细介绍的博客,这里就不再赘述。
综上所述,一共有三种思路,第一种思路是baseline,要想拿高分,就在下面两种思路里做工作吧。冲吧!看论文吧!debug吧!