insightface pytorch 答疑指南

之前写过一篇人脸识别从原理到实践 详细介绍了人脸识别相关的算法、模型和Loss等,里面也提到insightface成为当前工业事实上的基准。但是它各种牛逼,唯一不足的点就是开始时选了mxnet框架开发,奈何现在基本没什么人用了,所以在22年3月官方悄悄的把主线版本特别是PartialFC的实现换成了pytorch,而且更早之前经历过一次大的文件结构调整,加入了paddle、oneflow等很多框架的实现,但是也导致很多之前教程给的路径都找不到了,还有一些文件直接就删除了,这对于新入手造成了很大的困扰。我是非常反对这种开发中途变更,对于新出的算法新开个仓库就是了,估计为了涨star。作者过佳曾在 InsightFace大规模人脸识别 进行过讲解。

刚开始相信大家一定和我一样有数不清的疑惑,首先是怎么安装和运行,虽然主线版本切了pytorch,但是数据集制作用的还是mxnet,而mxnet又疏于维护,存在非常多的坑,特别是对于30x0系列的新显卡,装上后各种问题。目前我用的CUDA版本为11.3,用Anaconda装的python3.8,mxnet1.7之前的默认是不需要nccl(用于显卡并行通信的库)的,1.8之后需要另外安装nccl库,版本为2.8.4

conda install cudatoolkit=11.3 cudnn --channel https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/Paddle/
pip install torch==1.11.0+cu113 torchvision==0.12.0+cu113 -f https://download.pytorch.org/whl/cu113/torch_stable.html
pip install mxnet-cu112==1.8.0.post
pip install paddlepaddle-gpu==2.2.2.post110 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html

装好后就可以体验下人脸识别系统的效果啦基于insightface实现的人脸识别和人脸注册

pip install Cython insightface==0.6.2
pip install onnxruntime-gpu -i https://mirror.baidu.com/pypi/simple

也可以参考insight-face-paddle ,对应的视频教程

看到效果这么好,是不是想自己训一个模型,那怎么训练呢?

其实人脸识别真正的入口在arcface_torch 数据集下载链接,具体每个数据集的统计指标如下

insightface pytorch 答疑指南_第1张图片 人脸识别常用数据集对比

下载后数据后配置RAM,也就是把数据放到内存里,这里训练主机有256G内存,切出140G用于存放数据(为什么140呢?因为glint360k占的空间是那么大),这里以MS1MV2为例

sudo mkdir /train_tmp
sudo mount -t tmpfs -o size=140G  tmpfs /train_tmp
sudo cp data/faces_emore /train_tmp/ -r

 用下面的代码就可以愉快的开始训练了,单机器8卡V100需要约8个小时,训练速度是10000张/秒,也就是每天能训8.64亿张图,非常恐怖的数字,所以如果你的数据达不到1000张每秒每卡的话可能就需要检查下配置是不是出了什么问题了.

cd recognition/arcface_torch
python -m torch.distributed.launch --nproc_per_node=1 --nnodes=1 --node_rank=0 --master_addr="127.0.0.1" --master_port=12581 train.py configs/ms1mv2_mbf.py

训练过程中每个2000个iter会在测试集上评估当前的精度,如日志ms1mv2_mbf/training.log

Training: 2022-04-10 23:14:04,187-rank_id: 0
Training: 2022-04-10 23:14:18,205-: margin_list              [1.0, 0.5, 0.0]
Training: 2022-04-10 23:14:18,205-: network                  mbf
Training: 2022-04-10 23:14:18,205-: resume                   False
Training: 2022-04-10 23:14:18,205-: output                   work_dirs/ms1mv2_mbf
Training: 2022-04-10 23:14:18,205-: embedding_size           512
Training: 2022-04-10 23:14:18,205-: sample_rate              1.0
Training: 2022-04-10 23:14:18,205-: interclass_filtering_threshold0
Training: 2022-04-10 23:14:18,205-: fp16                     True
Training: 2022-04-10 23:14:18,205-: batch_size               128
Training: 2022-04-10 23:14:18,206-: optimizer                sgd
Training: 2022-04-10 23:14:18,206-: lr                       0.1
Training: 2022-04-10 23:14:18,206-: momentum                 0.9
Training: 2022-04-10 23:14:18,206-: weight_decay             0.0001
Training: 2022-04-10 23:14:18,206-: verbose                  2000
Training: 2022-04-10 23:14:18,208-: frequent                 10
Training: 2022-04-10 23:14:18,208-: dali                     False
Training: 2022-04-10 23:14:18,208-: rec                      /train_tmp/faces_emore
Training: 2022-04-10 23:14:18,208-: num_classes              85742
Training: 2022-04-10 23:14:18,208-: num_image                5822653
Training: 2022-04-10 23:14:18,208-: num_epoch                40
Training: 2022-04-10 23:14:18,208-: warmup_epoch             0
Training: 2022-04-10 23:14:18,208-: val_targets              ['lfw', 'cfp_fp', 'agedb_30']
Training: 2022-04-10 23:14:18,210-: total_batch_size         1024
Training: 2022-04-10 23:14:18,210-: warmup_step              0
Training: 2022-04-10 23:14:18,210-: total_step               227440
...
Training: 2022-04-10 23:18:56,638-[lfw][2000]XNorm: 20.481429
Training: 2022-04-10 23:18:56,638-[lfw][2000]Accuracy-Flip: 0.96000+-0.00853
Training: 2022-04-10 23:18:56,641-[lfw][2000]Accuracy-Highest: 0.96000
Training: 2022-04-10 23:19:21,795-[cfp_fp][2000]XNorm: 18.461583
Training: 2022-04-10 23:19:21,795-[cfp_fp][2000]Accuracy-Flip: 0.75300+-0.02095
Training: 2022-04-10 23:19:21,796-[cfp_fp][2000]Accuracy-Highest: 0.75300
Training: 2022-04-10 23:19:43,475-[agedb_30][2000]XNorm: 19.645099
Training: 2022-04-10 23:19:43,476-[agedb_30][2000]Accuracy-Flip: 0.81717+-0.02153
Training: 2022-04-10 23:19:43,476-[agedb_30][2000]Accuracy-Highest: 0.81717
...


...
Training: 2022-04-11 07:17:07,878-[lfw][226000]XNorm: 7.635595
Training: 2022-04-11 07:17:07,878-[lfw][226000]Accuracy-Flip: 0.99717+-0.00289
Training: 2022-04-11 07:17:07,879-[lfw][226000]Accuracy-Highest: 0.99750
Training: 2022-04-11 07:17:32,307-[cfp_fp][226000]XNorm: 6.540276
Training: 2022-04-11 07:17:32,308-[cfp_fp][226000]Accuracy-Flip: 0.95586+-0.01115
Training: 2022-04-11 07:17:32,308-[cfp_fp][226000]Accuracy-Highest: 0.95943
Training: 2022-04-11 07:17:53,429-[agedb_30][226000]XNorm: 7.491025
Training: 2022-04-11 07:17:53,429-[agedb_30][226000]Accuracy-Flip: 0.97050+-0.00730
Training: 2022-04-11 07:17:53,430-[agedb_30][226000]Accuracy-Highest: 0.97183

用官方提供的数据集训的都挺不错的,可是一旦放到实际中使用,就会出现各种各样的问题,这时就需要自己搜集数据了,具体可参见人脸识别之insightface开源代码使用:训练、验证、测试(2)​​​​​​​但是其用的都是旧代码,新代码直接用mxnet的im2rec就可以了,具体可参见prepare_webface42m 请注意这里存的都是检测后并且对齐的人脸图,大小为112x112

├── 0_0_0000000
│   ├── 0_0.jpg
│   ├── 0_1.jpg
│   ├── 0_2.jpg
│   ├── 0_3.jpg
│   └── 0_4.jpg
├── 0_0_0000001
│   ├── 0_5.jpg
│   ├── 0_6.jpg
│   ├── 0_7.jpg
│   ├── 0_8.jpg
│   └── 0_9.jpg
├── 0_0_0000002
│   ├── 0_10.jpg
│   ├── 0_11.jpg
│   ├── 0_12.jpg
│   ├── 0_13.jpg
│   ├── 0_14.jpg
│   ├── 0_15.jpg
│   ├── 0_16.jpg
│   └── 0_17.jpg
├── 0_0_0000003
│   ├── 0_18.jpg
│   ├── 0_19.jpg
│   └── 0_20.jpg
├── 0_0_0000004
# 1) create train.lst using follow command
python -m mxnet.tools.im2rec --list --recursive train WebFace42M_Root

# 2) create train.rec and train.idx using train.lst using following command
python -m mxnet.tools.im2rec --num-thread 16 --quality 100 train WebFace42M_Root

验证在训练过程中就已经评估了,具体做了哪些工作可参见人脸识别之insightface开源代码使用:训练、验证、测试(3)

最后就是部署使用了人脸识别之insightface开源代码使用:训练、验证、测试(4)

Partial FC是近来比较大的更新,可以看下论文理解详细解读

如果去找工作,肯定免不了被人问arcloss是怎么实现的,这块可参考

insightface源码中arcface代码段理解 

手撕代码insightFace中的arcface_torch

insightface 中 Partical_FC源码学习​​​​​​​

def sample(self, total_label):
        """
        Sample all positive class centers in each rank, and random select neg class centers to filling a fixed
        `num_sample`.

        total_label: tensor
            Label after all gather, which cross all GPUs.
        """
        ### 当前GPU负责[self.class_start, self.class_start + self.num_local)的这些正类
        index_positive = (self.class_start <= total_label) & (total_label < self.class_start + self.num_local)
        total_label[~index_positive] = -1 # 不属于当前GPU负责的正类
        total_label[index_positive] -= self.class_start # 当前GPU的类标号从0开始
        if int(self.sample_rate) != 1:
            positive = torch.unique(total_label[index_positive], sorted=True) # 找到当前batch出现的当前GPU负责的正类标签
            if self.num_sample - positive.size(0) >= 0: # 当前GPU负责的负类个数
                perm = torch.rand(size=[self.num_local], device=self.device) # 均匀分布,[0,1]之间随机数,选择每类的概率
                # [0.5470, 0.5663, 0.5749, 0.5003, 0.5056, 0.4121, 0.4119, 0.7815, 0.1450, 0.8829, 0.0609, 0.9660]
                perm[positive] = 2.0 # 将positive设置为2,下一步排序会被选上
                # [0.9709, 2.0000, 0.5654, 2.0000, 0.8771, 2.0000, 0.1031, 0.4720, 0.4122, 0.6403, 0.0315, 0.7885]
                index = torch.topk(perm, k=self.num_sample)[1]
                # 假设sample_rate=0.5, int(13*0.5)=6, 从所有类中选出6类,期中positive已确定,negative按照之前的顺序选3个
                # [2.0000, 2.0000, 2.0000, 0.9709, 0.8771, 0.7885] 
                # [ 3,  5,  1,  0,  4, 11]
                index = index.sort()[0]
                # tensor([ 0,  1,  3,  4,  5, 11])
            else:
                index = positive
            self.index = index
            # torch.searchsorted(sorted_sequence, values):找到values在sorted_sequence中的位置
            # right=False(默认),与左边值作比较;right=True,与右侧值作比较
            # 需要在已排序好的数组中作比较
            # 将当前GPU的label放入整个GPU中
            total_label[index_positive] = torch.searchsorted(index, total_label[index_positive])
            self.sub_weight = Parameter(self.weight[index])
            self.sub_weight_mom = self.weight_mom[index]

你可能感兴趣的:(人脸识别,人工智能,计算机视觉)