数据集详情:多种场景比较拥挤场景的行人检测数据集,包含13382张图片,共计40万个不同遮挡程度的人体。
应用项目:人体检测
数据集地址:http://www.cbsr.ia.ac.cn/users/sfzhang/WiderPerson/
因为工作原因,会搜集大量的各类公开应用场景数据集,如果有同学需要其他场景或者其他项目的,也可以留言,或者发送邮件到[email protected],也会将对应的数据集更新到此处。
WiderPerson:野外密集行人检测的多样数据集
生物测定和安全研究中心(CBSR),国家模式识别实验室(NLPR)
中国科学院自动化研究所
介绍
WiderPerson数据集是一个在野外的行人检测基准数据集,其中的图像是从广泛的场景中选择的,不再局限于交通场景。选取13382幅图像,标注约400K个各种遮挡的标注。随机选取8000/1000/4382幅图像作为训练、验证和测试子集。与CityPersons和更宽的面数据集类似,我们不发布测试图像的边界框地面真相。用户需要提交最终预测文件,我们将继续进行评估。
下载
通过Google Drive或Baidu Drive(jx5p)下载WiderPerson数据集,解压下载文件,得到以下文件:
• "./Images": 13,382 images of this dataset.
• "./Annotations": 9,000 annotation text files of training and valiadation subsets.
• "./Evaluation": evaluation codes.
• "./train.txt": file list of training subset.
• "./test.txt": file list of testing subset.
• "./val.txt": file list of validation subset.
• "./ReadMe.txt": file of instruction.
注释格式
“../Images”文件夹(例如000001.jpg)中的训练和有效性子集的每个图像在“../Annotations”文件夹(例如000001)中具有相应的注释文本文件。jpg.txt文件). 注释文件结构的格式如下:
...
< number of annotations in this image = N >
< anno 1 >
< anno 2 >
...
< anno N >
...
其中每行一个对象实例为[class_label,x1,y1,x2,y2],类标签定义为:
...
< class_label =1: pedestrians >
< class_label =2: riders >
< class_label =3: partially-visible persons >
< class_label =4: ignore regions >
< class_label =5: crowd >
...
检测输出
每个图像的检测结果应该是一个与图像前缀相同但后缀为“.txt”的文本文件,例如:000001.jpg->000001.txt。所有检测文本文件都应放在文件夹中进行评估。检测输出文件预期如下格式
format:
...
< number of detections in this image = N >
< det 1 >
< det 2 >
...
< det N >
...
每个检测到的边界框的格式应为“[x1,y1,x2,y2,score]”。
评价
在获取检测结果文件夹(如vgg_frcnn)后,将该文件夹放入“./Evaluation”文件夹,然后在“wider_eval.m”中相应地修改“legend_name”和“pred_dir”,最后运行“wider_eval.m”获得评估度量。
@article{zhang2019widerperson, Author = {Zhang, Shifeng and Xie, Yiliang and Wan, Jun and Xia, Hansheng and Li, Stan Z. and Guo, Guodong}, journal = {IEEE Transactions on Multimedia (TMM)}, Title = {WiderPerson: A Diverse Dataset for Dense Pedestrian Detection in the Wild}, Year = {2019}}
For questions and result submission, please contact Shifeng Zhang at [email protected]