【存】Alphapose训练自己的数据集

因为没有搜到相关的资料,所以训练的时候走了很多弯路,现在把整个步骤整理一下:

一、标注图片

        因为只需要关键点数据 ,所以只标注了bbox框和人体关键点,使用的是labelme(这部分网上有很多教程),时间宽裕的话最好把segmentation也标注一下,验证的时候需要分割框的area(但是我没标,用目标检测框的1/2代替了一下)

        标注完图片后将labelme文件转成coco格式,得到一个完整的json文件,考虑到已有的config文件中是测试集和验证集合并的格式,将其分成4:1的格式。

二、训练前的准备

        首先,我是基于.\configs\coco\resnet\256x192_res50_lr1e-3_1x.yaml修改的,如下图所示。我们需要把json文件放在data文件夹下,然后按照格式去修改ROOT和ANN。

【存】Alphapose训练自己的数据集_第1张图片

        值得注意的是,因为我之前标注的时候每张图都只标注了单人,但在进行detection的时候会生成图中所有人物的矩形框,储存在DET_FILE中,这导致了mAP的值极低,所以我们需要修改DET_FILE,将多余的框全都删除(基本是保留score最高的bbox);另外需要修改area的值,如果只标注了关键点,area的值为0,我们可以通过计算bbox的面积取1/2来大致估算目标人物的area,最后修改的config文件如下图所示。

【存】Alphapose训练自己的数据集_第2张图片

你可能感兴趣的:(深度学习,人工智能,机器学习,神经网络)