Wider Person拥挤场景行人数据集

Wider Person拥挤场景行人数据集

数据集详情:多种场景比较拥挤场景的行人检测数据集,包含13382张图片,共计40万个不同遮挡程度的人体。

应用项目:人体检测

数据集地址:http://www.cbsr.ia.ac.cn/users/sfzhang/WiderPerson/

因为工作原因,会搜集大量的各类公开应用场景数据集,如果有同学需要其他场景或者其他项目的,也可以留言,或者发送邮件到[email protected],也会将对应的数据集更新到此处。

 

 

 

WiderPerson:野外密集行人检测的多样数据集

生物测定和安全研究中心(CBSR),国家模式识别实验室(NLPR)

中国科学院自动化研究所

Wider Person拥挤场景行人数据集_第1张图片

介绍

WiderPerson数据集是一个在野外的行人检测基准数据集,其中的图像是从广泛的场景中选择的,不再局限于交通场景。选取13382幅图像,标注约400K个各种遮挡的标注。随机选取8000/1000/4382幅图像作为训练、验证和测试子集。与CityPersons和更宽的面数据集类似,我们不发布测试图像的边界框地面真相。用户需要提交最终预测文件,我们将继续进行评估。

下载

通过Google Drive或Baidu Drive(jx5p)下载WiderPerson数据集,解压下载文件,得到以下文件:

• "./Images": 13,382 images of this dataset. 
• "./Annotations": 9,000 annotation text files of training and valiadation subsets. 
• "./Evaluation": evaluation codes. 
• "./train.txt": file list of training subset. 
• "./test.txt": file list of testing subset. 
• "./val.txt": file list of validation subset. 
• "./ReadMe.txt": file of instruction.

注释格式

“../Images”文件夹(例如000001.jpg)中的训练和有效性子集的每个图像在“../Annotations”文件夹(例如000001)中具有相应的注释文本文件。jpg.txt文件). 注释文件结构的格式如下:

... 
< number of annotations in this image = N > 
< anno 1 > 
< anno 2 > 
... 
< anno N > 
... 

其中每行一个对象实例为[class_label,x1,y1,x2,y2],类标签定义为:

... 
< class_label =1: pedestrians > 
< class_label =2: riders > 
< class_label =3: partially-visible persons > 
< class_label =4: ignore regions > 
< class_label =5: crowd > 
... 

检测输出

每个图像的检测结果应该是一个与图像前缀相同但后缀为“.txt”的文本文件,例如:000001.jpg->000001.txt。所有检测文本文件都应放在文件夹中进行评估。检测输出文件预期如下格式

format: 
... 
< number of detections in this image = N > 
< det 1 > 
< det 2 > 
... 
< det N > 
... 

每个检测到的边界框的格式应为“[x1,y1,x2,y2,score]”。

评价

在获取检测结果文件夹(如vgg_frcnn)后,将该文件夹放入“./Evaluation”文件夹,然后在“wider_eval.m”中相应地修改“legend_name”和“pred_dir”,最后运行“wider_eval.m”获得评估度量。

引用

@article{zhang2019widerperson,
Author = {Zhang, Shifeng and Xie, Yiliang and Wan, Jun and Xia, Hansheng and Li, Stan Z. and Guo, Guodong},
journal = {IEEE Transactions on Multimedia (TMM)},
Title = {WiderPerson: A Diverse Dataset for Dense Pedestrian Detection in the Wild},
Year = {2019}}

 

Contact

For questions and result submission, please contact Shifeng Zhang at [email protected]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

你可能感兴趣的:(图像识别)