这里我们提供了评测 SUNRGBD、ScanNet、KITTI 等多个数据集的测试脚本。
请参考开始下的验证/样例来获取更容易集成到其它项目和基本样例的高级接口。
你可以通过以下命令来测试数据集:
# 单块显卡测试
python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [--out ${RESULT_FILE}] [--eval ${EVAL_METRICS}] [--show] [--show-dir ${SHOW_DIR}]
# 多块显卡测试
./tools/dist_test.sh ${CONFIG_FILE} ${CHECKPOINT_FILE} ${GPU_NUM} [--out ${RESULT_FILE}] [--eval ${EVAL_METRICS}]
可选参数:
RESULT_FILE
:输出结果(pickle 格式)的文件名,如果未指定,结果不会被保存。EVAL_METRICS
:在结果上评测的项,不同的数据集有不同的合法值。具体来说,我们默认对不同的数据集都使用各自的官方度量方法进行评测,所以对 nuScenes、Lyft、ScanNet 和 SUNRGBD 这些数据集来说在检测任务上可以简单设置为 mAP
;对 KITTI 数据集来说,如果我们只想评测 2D 检测效果,可以将度量方法设置为 img_bbox
;对于 Waymo 数据集,我们提供了 KITTI 风格(不稳定)和 Waymo 官方风格这两种评测方法,分别对应 kitti
和 waymo
,我们推荐使用默认的官方度量方法,它的性能稳定而且可以与其它算法公平比较;同样地,对 S3DIS、ScanNet 这些数据集来说,在分割任务上的度量方法可以设置为 mIoU
。--show
:如果被指定,检测结果会在静默模式下被保存,用于调试和可视化,但只在单块GPU测试的情况下生效,和 --show-dir
搭配使用。--show-dir
:如果被指定,检测结果会被保存在指定文件夹下的 ***_points.obj
和 ***_pred.obj
文件中,用于调试和可视化,但只在单块GPU测试的情况下生效,对于这个选项,图形化界面在你的环境中不是必需的。示例:
假定你已经把模型权重文件下载到 checkpoints/
文件夹下,
在 ScanNet 数据集上测试 VoteNet,保存模型,可视化预测结果
python tools/test.py configs/votenet/votenet_8x8_scannet-3d-18class.py \
checkpoints/votenet_8x8_scannet-3d-18class_20200620_230238-2cea9c3a.pth \
--show --show-dir ./data/scannet/show_results
在 ScanNet 数据集上测试 VoteNet,保存模型,可视化预测结果,可视化真实标签,计算 mAP
python tools/test.py configs/votenet/votenet_8x8_scannet-3d-18class.py \
checkpoints/votenet_8x8_scannet-3d-18class_20200620_230238-2cea9c3a.pth \
--eval mAP
--eval-options 'show=True' 'out_dir=./data/scannet/show_results'
在 ScanNet 数据集上测试 VoteNet(不保存测试结果),计算 mAP
python tools/test.py configs/votenet/votenet_8x8_scannet-3d-18class.py \
checkpoints/votenet_8x8_scannet-3d-18class_20200620_230238-2cea9c3a.pth \
--eval mAP
使用8块显卡测试 SECOND,计算 mAP
./tools/slurm_test.sh ${PARTITION} ${JOB_NAME} configs/second/hv_second_secfpn_6x8_80e_kitti-3d-3class.py \
checkpoints/hv_second_secfpn_6x8_80e_kitti-3d-3class_20200620_230238-9208083a.pth \
--out results.pkl --eval mAP
使用8块显卡在 nuScenes 数据集上测试 PointPillars,生成提交给官方评测服务器的 json 文件
./tools/slurm_test.sh ${PARTITION} ${JOB_NAME} configs/pointpillars/hv_pointpillars_fpn_sbn-all_4x8_2x_nus-3d.py \
checkpoints/hv_pointpillars_fpn_sbn-all_4x8_2x_nus-3d_20200620_230405-2fa62f3d.pth \
--format-only --eval-options 'jsonfile_prefix=./pointpillars_nuscenes_results'
生成的结果会保存在 ./pointpillars_nuscenes_results
目录。
使用8块显卡在 KITTI 数据集上测试 PointPillars,生成提交给官方评测服务器的 json 文件
./tools/slurm_test.sh ${PARTITION} ${JOB_NAME} configs/second/hv_second_secfpn_6x8_80e_kitti-3d-3class.py \
checkpoints/hv_second_secfpn_6x8_80e_kitti-3d-3class_20200620_230238-9208083a.pth \
--format-only --eval-options 'pklfile_prefix=./second_kitti_results' 'submission_prefix=./second_kitti_results'
生成的结果会保存在 ./second_kitti_results
目录。
使用8块显卡在 Lyft 数据集上测试 PointPillars,生成提交给排行榜的 pkl 文件
./tools/slurm_test.sh ${PARTITION} ${JOB_NAME} configs/pointpillars/hv_pointpillars_fpn_sbn-2x8_2x_lyft-3d.py \
checkpoints/hv_pointpillars_fpn_sbn-2x8_2x_lyft-3d_latest.pth --out results/pp_lyft/results_challenge.pkl \
--format-only --eval-options 'jsonfile_prefix=results/pp_lyft/results_challenge' \
'csv_savepath=results/pp_lyft/results_challenge.csv'
注意:为了生成 Lyft 数据集的提交结果,--eval-options
必须指定 csv_savepath
。生成 csv 文件后,你可以使用网站上给出的 kaggle 命令提交结果。
注意在 Lyft 数据集的配置文件,test
中的 ann_file
值为 data_root + 'lyft_infos_test.pkl'
,是没有标注的 Lyft 官方测试集。要在验证数据集上测试,请把它改为 data_root + 'lyft_infos_val.pkl'
。
使用8块显卡在 waymo 数据集上测试 PointPillars,使用 waymo 度量方法计算 mAP
./tools/slurm_test.sh ${PARTITION} ${JOB_NAME} configs/pointpillars/hv_pointpillars_secfpn_sbn-2x16_2x_waymo-3d-car.py \
checkpoints/hv_pointpillars_secfpn_sbn-2x16_2x_waymo-3d-car_latest.pth --out results/waymo-car/results_eval.pkl \
--eval waymo --eval-options 'pklfile_prefix=results/waymo-car/kitti_results' \
'submission_prefix=results/waymo-car/kitti_results'
注意:对于 waymo 数据集上的评估,请根据说明构建二进制文件 compute_detection_metrics_main
来做度量计算,并把它放在 mmdet3d/core/evaluation/waymo_utils/
。(在使用 bazel 构建 compute_detection_metrics_main
时,有时会出现 'round' is not a member of 'std'
的错误,我们只需要把那个文件中 round
前的 std::
去掉。)二进制文件生成时需要在 --eval-options
中给定 pklfile_prefix
。对于度量方法,waymo
是推荐的官方评估策略,目前 kitti
评估是依照 KITTI 而来的,每个难度的结果和 KITTI 的定义并不完全一致。目前大多数物体都被标记为0难度,会在未来修复。它的不稳定原因包括评估的计算大、转换后的数据缺乏遮挡和截断、难度的定义不同以及平均精度的计算方法不同。
使用8块显卡在 waymo 数据集上测试 PointPillars,生成 bin 文件并提交到排行榜
./tools/slurm_test.sh ${PARTITION} ${JOB_NAME} configs/pointpillars/hv_pointpillars_secfpn_sbn-2x16_2x_waymo-3d-car.py \
checkpoints/hv_pointpillars_secfpn_sbn-2x16_2x_waymo-3d-car_latest.pth --out results/waymo-car/results_eval.pkl \
--format-only --eval-options 'pklfile_prefix=results/waymo-car/kitti_results' \
'submission_prefix=results/waymo-car/kitti_results'
注意:生成 bin 文件后,你可以简单地构建二进制文件 create_submission
,并根据说明创建提交的文件。要在验证服务器上评测验证数据集,你也可以用同样的方式生成提交的文件。
MMDetection3D 分别用 MMDistributedDataParallel
and MMDataParallel
实现了分布式训练和非分布式训练。
所有的输出(日志文件和模型权重文件)都会被保存到工作目录下,通过配置文件里的 work_dir
指定。
默认我们每过一个周期都在验证数据集上评测模型,你可以通过在训练配置里添加间隔参数来改变评测的时间间隔:
evaluation = dict(interval=12) # 每12个周期评估一次模型
重要:配置文件中的默认学习率对应8块显卡,配置文件名里有具体的批量大小,比如’2x8’表示一共8块显卡,每块显卡2个样本。
根据 Linear Scaling Rule,当你使用不同数量的显卡或每块显卡有不同数量的图像时,需要依批量大小按比例调整学习率。如果用4块显卡、每块显卡2幅图像时学习率为0.01,那么用16块显卡、每块显卡4幅图像时学习率应设为0.08。然而,由于大多数模型使用 ADAM 而不是 SGD 进行优化,上述规则可能并不适用,用户需要自己调整学习率。
python tools/train.py ${CONFIG_FILE} [optional arguments]
如果你想在命令中指定工作目录,添加参数 --work-dir ${YOUR_WORK_DIR}
。
./tools/dist_train.sh ${CONFIG_FILE} ${GPU_NUM} [optional arguments]
可选参数:
--no-validate
(不推荐):默认情况下,代码在训练阶段每 k(默认值是1,可以像这里一样修改)个周期做一次评测,如果要取消评测,使用 --no-validate
。--work-dir ${WORK_DIR}
:覆盖配置文件中的指定工作目录。--resume-from ${CHECKPOINT_FILE}
:从之前的模型权重文件中恢复。--options 'Key=value'
:覆盖使用的配置中的一些设定。resume-from
和 load-from
的不同点:
resume-from
加载模型权重和优化器状态,同时周期数也从特定的模型权重文件中继承,通常用于恢复偶然中断的训练过程。load-from
仅加载模型权重,训练周期从0开始,通常用于微调。如果要在 slurm 管理的集群上运行 MMDectection3D,你可以使用 slurm_train.sh
脚本(该脚本也支持单机训练)
[GPUS=${GPUS}] ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} ${CONFIG_FILE} ${WORK_DIR}
下面是一个使用16块显卡在 dev 分区上训练 Mask R-CNN 的示例:
GPUS=16 ./tools/slurm_train.sh dev pp_kitti_3class hv_pointpillars_secfpn_6x8_160e_kitti-3d-3class.py /nfs/xxxx/pp_kitti_3class
你可以查看 slurm_train.sh 来获取所有的参数和环境变量。
如果你有多个机器连接到以太网,可以参考 PyTorch 的 launch utility,如果你没有像 InfiniBand 一样的高速率网络,通常会很慢。
如果你在单个机器上启动多个任务,比如,在具有8块显卡的机器上进行2个4块显卡训练的任务,你需要为每个任务指定不同的端口(默认为29500)以避免通信冲突。
如果你使用 dist_train.sh
启动训练任务,可以在命令中设置端口:
CUDA_VISIBLE_DEVICES=0,1,2,3 PORT=29500 ./tools/dist_train.sh ${CONFIG_FILE} 4
CUDA_VISIBLE_DEVICES=4,5,6,7 PORT=29501 ./tools/dist_train.sh ${CONFIG_FILE} 4
如果你使用 Slurm 启动训练任务,有两种方式指定端口:
通过 --options
设置端口,这是更推荐的,因为它不改变原来的配置
CUDA_VISIBLE_DEVICES=0,1,2,3 GPUS=4 ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} config1.py ${WORK_DIR} --options 'dist_params.port=29500'
CUDA_VISIBLE_DEVICES=4,5,6,7 GPUS=4 ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} config2.py ${WORK_DIR} --options 'dist_params.port=29501'
修改配置文件(通常在配置文件的倒数第6行)来设置不同的通信端口
在 config1.py
中,
dist_params = dict(backend='nccl', port=29500)
在 config2.py
中,
dist_params = dict(backend='nccl', port=29501)
然后,你可以使用 config1.py
and config2.py
启动两个任务
CUDA_VISIBLE_DEVICES=0,1,2,3 GPUS=4 ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} config1.py ${WORK_DIR}
CUDA_VISIBLE_DEVICES=4,5,6,7 GPUS=4 ./tools/slurm_train.sh ${PARTITION} ${JOB_NAME} config2.py ${WORK_DIR}