关于slowfast自建数据集的训练日志(更新中?)

代码是facebook官方那个
参考这个做的
https://blog.csdn.net/WhiffeYF/article/details/115581800#14_via_151
提到行为的标注是按照每秒来的,而不是每帧来的,在ava_help里也是有设置一个秒的范围
之前有试过一个小型数据集按照每帧来标注,效果很混乱,所以这次记录整理一下

首先是对采集到的视频做三次筛选
1.去除路人的检测标注,只留下自己要识别行为的对象的检测结果
2.如果发生行为的那一秒并没能检测到对象(自己用的检测跟踪算法不是官方那个detectron2,而是自己的yolo+deepsort)那就只好删掉这个视频对应的东西
3.对视频每秒做行为标注时留神每秒一张截图是否有包含动作发生的过程,比如动作发生太短,那也就只好pass了吧(或许可以把这样的视频减速试试,不过那样就又要再标注一遍)

终于把所有视频中的动作标注到csv中后,划分训练和验证,随后合并相应的csv,得到ava_train_v2.2.csv和ava_val_v2.2.csv

eg:
A,1,0.395,0.230,0.545,0.933,1,0
视频名,秒序号,bbox归一化,行为标号,人员ID

ava_action_list_v2.2_for_activitynet_2019.pbtxt就是行为类别的设定,比葫芦画瓢

制作ava_detection_val_boxes_and_labels.csv和ava_detection_train_boxes_and_labels_include_negative_v2.2.csv

A,1,0.395,0.230,0.545,0.933,1,0.996382
视频名,秒序号,bbox,行为序号(从1开始),检测置信度
注意val的这个表中行为那一列为空,即""
注意行为的标注序号必须是从1开始且连续,也就是说最后一个行为的序号就等于yaml里设置的行为类数,
除非在*_dataset.py做一些修改,注意是训练和验证的两个代码都要修改

制作train.csv和val.csv

original_vido_id video_id frame_id path labels
视频名 视频序号(从0开始) 帧序号(从0开始) 帧图像的路径 ""

你可能感兴趣的:(人工智能)