人脸项目实践

1 前言

在实现一个优秀人脸识别系统的过程中,应该有以下重要环节。
1、干净而且大量的数据。
2、优秀的网络结构。
3、优秀的网络指挥棒(损失函数)。
4、由以上1,2,3决定一个优秀的模型,作为一个大型的分类过程,优秀的模型能够提取到人脸更加独有的特征,具有更好的“辨别特性”。
5、部署途径
(1)提取底图特征并保存数据库,就是要有每一个人的标准人脸图像,经过模型进行一遍提取之后的特征保存到数据库当中。
(2)索引匹配的人脸特征,对检测到的人进行检测、对齐矫正并经过模型提取到“独有”的特征,然后利用该特征与数据库中的人脸特征进行匹配,输出匹配程度最高的前几个人。

2 数据清洗

先用第三方的人脸识别对我的数据集进行一次特征提取和匹配,对于数据集中的每一个人我有一张标准的底图,提取了底图的特征并对每个人的所有图片进行匹配,将不匹配的图片剪切出来进行人工筛选,人多的话并合理用一些工具软件,用上几天就能将人脸数据集清洗得很好了,但不能随意删除图片,确认是不同的人或图片质量十分差才能清掉。

3 数据检测对齐矫正

数据检测对齐矫正,可以用ssh和dlib,也可以直接用作者提供的face_align.py,ssh表现效果确实比mtcnn这个好,但是相对麻烦了一点,所以我这里直接用了作者的align_dataset_mtcnn.py。

python face_align.py --source_root  E:/6T/data/test  --dest_root  E:/6T/data/test_Aligned

4 制作rec和idx的数据集

训练集需要.rec,.idx,*.lst,property,其中rec是已经对齐完成的图像数据,idx是索引,需要用到lst来生成rec和idx。
lst中包含的内容如下:1 path/Adam_Brody/Adam_Brody_277.png 25
中间用\t(TAB)隔开,用空格会报错,第一个参数代表是否对齐,第二个参数代表图片的路径,第三个参数代表图片的标签,整个lst文件要求标签必须从0并从小到大排列,不然生成的rec和idx会出错。
property是属性文件,里面内容是类别数和图像大小,例如 1000,112,112
其中1000代表人脸的类别数目,图片格式为112x112

4.1 生成.lst

import os
from easydict import EasyDict as edict

input_dir = 'E:\data\image'
ret = []
label = 0
person_names = []

for person_name in os.listdir(input_dir):
    person_names.append(person_name)

person_names = sorted(person_names)

for person_name in person_names:
    _subdir = os.path.join(input_dir, person_name)
    if not os.path.isdir(_subdir):
        continue

    _ret = []
    for img in os.listdir(_subdir):
        fimage = edict()
        fimage.id = os.path.join(_subdir, img)
        fimage.classname = str(label)
        fimage.image_path = os.path.join(_subdir, img)
        fimage.bbox = None
        fimage.landmark = None
        _ret.append(fimage)
    ret += _ret

    label += 1

for item in ret:
    print("%d\t%s\t%d" % (1, item.image_path, int(item.classname)))

手动生成:python dir2lst.py > E:\data\image.lst

4.2 由.lst 和 property 来生成 .rec .idx

手动编辑:property中就定义数据集的格式,整体内容如下:1000,112,112 ,其中1000代表人脸的类别数目,图片格式为112x112。

python face2rec2.py E:\data\

5 模型训练

训练的话最好写成一个脚本,直接运行脚本比较好修改参数。

configurations = {
    1: dict(
        SEED=1337,  # random seed for reproduce results

        DATA_ROOT='E:/6T/data/faces_glintasia',
        # the parent root where your train/val/test data are stored
        MODEL_ROOT='E:/6T/buffer/model',  # the root to buffer your checkpoints
        LOG_ROOT='E:/6T/buffer/log',  # the root to log your train/val status

        BACKBONE_RESUME_ROOT='./',  # the root to resume training from a saved checkpoint
        HEAD_RESUME_ROOT='./',  # the root to resume training from a saved checkpoint

        BACKBONE_NAME='IR_50',
        # support: ['ResNet_50', 'ResNet_101', 'ResNet_152', 'IR_50', 'IR_101', 'IR_152', 'IR_SE_50', 'IR_SE_101', 'IR_SE_152']
        HEAD_NAME='ArcFace',  # support:  ['Softmax', 'ArcFace', 'CosFace', 'SphereFace', 'Am_softmax']
        LOSS_NAME='Focal',  # support: ['Focal', 'Softmax']

        INPUT_SIZE=[112, 112],  # support: [112, 112] and [224, 224]
        RGB_MEAN=[0.5, 0.5, 0.5],  # for normalize inputs to [-1, 1]
        RGB_STD=[0.5, 0.5, 0.5],
        EMBEDDING_SIZE=512,  # feature dimension
        BATCH_SIZE=16,
        DROP_LAST=True,  # whether drop the last batch to ensure consistent batch_norm statistics
        LR=0.01,  # initial LR
        NUM_EPOCH=125,  # total epoch number (use the firt 1/25 epochs to warm up)
        WEIGHT_DECAY=5e-4,  # do not apply to batch_norm parameters
        MOMENTUM=0.9,
        STAGES=[20, 40, 60],  # epoch stages to decay learning rate

        DEVICE=torch.device("cuda:0" if torch.cuda.is_available() else "cpu"),
        MULTI_GPU=True,
        # flag to use multiple GPUs; if you choose to train with single GPU, you should first run "export CUDA_VISILE_DEVICES=device_id" to specify the GPU card you want to use
        GPU_ID=[0],  # specify your GPU ids
        PIN_MEMORY=True,
        NUM_WORKERS=0,
    ),
}

5 参考

https://github.com/ZhaoJ9014/face.evoLVe.PyTorch封装的网络框架
Insightface制作rec和idx的训练集
Insightface/Arcface项目实践流程

你可能感兴趣的:(人脸项目实践)