原文:Tracking the Millenium Falcon with Tensorflow
作者:Nick Bourdakos
译者:雁惊寒
摘要:本文以星球大战中的千年隼号为例,介绍了如何使用强大的PowerAI来进行对象检测。
活动中的自定义对象检测(完整视频地址)
当前,大多数的大型科技公司(如IBM、Google、Microsoft和Amazon)都有自己的视觉识别产品。一些小公司也提供了类似的产品,如Clarifai。但是他们都没有提供对象检测API。
下面两张图片都使用了相同的Watson Visual Recognition默认分类器进行标记。不过,第一张图片首先通过了一个对象检测模型。
对象检测比视觉识别先进得多。但是如果想要进行对象检测,你就不得不自己动手了。
根据不同的使用情况,可能并不需要自定义对象检测模型。 TensorFlow的对象检测API提供了一些基于COCO数据集的不同速度和准确度的模型。
这是COCO模型可检测对象的完整列表:
如果想要检测不在此列表中的东西,则必须构建自己的自定义对象检测器。
训练自己的模型需要做很多工作。需要收集大量的图像,并标注它们。标注包括指定对象坐标和相应的标签。对于包含两个钛战机的图像,标注的结果是这样的:
<annotation>
<folder>imagesfolder>
<filename>image1.jpgfilename>
<size>
<width>1000width>
<height>563height>
size>
<segmented>0segmented>
<object>
<name>Tie Fightername>
<bndbox>
<xmin>112xmin>
<ymin>281ymin>
<xmax>122xmax>
<ymax>291ymax>
bndbox>
object>
<object>
<name>Tie Fightername>
<bndbox>
<xmin>87xmin>
<ymin>260ymin>
<xmax>95xmax>
<ymax>268ymax>
bndbox>
object>
annotation>
针对星球大战模型,我收集了308个图片,每张图片包含了两到三个对象。我建议针对每个对象找出的200-300个样本图片。
我们是否需要为这几百张图片写一大推的xml呢?
当然不用!有很多标注工具,比如labelImg和RectLabel。我使用的是RectLabel,但它只能在macOS上使用。不过,还是有很多工作要做的。我花了大约三四个小时的时间来标注整个数据集。创建标注时,请将其导出为PASCAL VOC格式。
在运行脚本准备数据之前,还需要做一些设置工作。
从这里克隆代码库。目录结构如下所示:
models
|-- annotations
| |-- label_map.pbtxt
| |-- trainval.txt
| `-- xmls
| |-- 1.xml
| |-- 2.xml
| |-- 3.xml
| `-- ...
|-- images
| |-- 1.jpg
| |-- 2.jpg
| |-- 3.jpg
| `-- ...
|-- object_detection
| `-- ...
`-- ...
这里已经包含了所有的训练数据,开箱即用。但是如果要用自己的数据创建模型,那么需要将你自己的训练图像添加到images
目录中,将XML标注添加到annotations/xmls
目录中,然后更新trainval.txt
和label_map.pbtxt
。
trainval.txt
是一个文件名列表,用于查找和关联JPG和XML文件。下面的trainval.txt
列表让我们可以找到abc.jpg
、abc.xml
、123.jpg
、123.xml
、xyz.jpg
和xyz.xml
:
abc
123
xyz
注意:请确保JPG和XML文件的文件名除了扩展名之外是一样的。
label_map.pbtxt
是我们要检测的对象列表。内容是这样的:
item {
id: 1
name: 'Millennium Falcon'
}
item {
id: 2
name: 'Tie Fighter'
}
首先,安装Python和pip,并安装脚本需要的组件:
pip install -r requirements.txt
在PYTHONPATH
中加入models
和models/slim
:
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
重要提示:每次打开终端后都要运行一遍,或者添加到~/.bashrc
文件中。
运行脚本:
python object_detection/create_tf_record.py
脚本运行结束之后,将会得到train.record
和val.record
文件。我们将用这两个文件来训练模型。
即使使用多个GPU,从头开始训练对象检测器也可能需要数天的时间。为了加速训练,我们将采用一个在不同数据集上训练过的对象检测器,并重新设置它的一些参数来初始化我们的新模型。
你可以从这个模型集市上下载模型。每个模型的准确性和速度都不一样。我使用的是faster_rcnn_resnet101_coco
。
把所有的model.ckpt
文件提取出来并复制到代码库的根目录。
faster_rcnn_resnet101.config
是faster_rcnn_resnet101_coco
模型的配置文件。如果使用另一个模型,则可以在这里找到相对应的配置文件。
运行下面的脚本,训练开始了!
python object_detection/train.py \
--logtostderr \
--train_dir=train \
--pipeline_config_path=faster_rcnn_resnet101.config
注意:将pipeline_config_path
替换为配置文件实际的路径。
global step 1:
global step 2:
global step 3:
global step 4:
...
好极了!开始运行了!
10分钟后。
global step 41:
global step 42:
global step 43:
global step 44:
...
电脑开始冒烟了
global step 71:
global step 72:
global step 73:
global step 74:
...
这东西要运行多久呢? 视频中使用的模型要运行22000步。如果使用的是MacBook Pro,假设每15秒左右完成一步,以这样的速度,大约需要三到四天的时间才能获得一个差不多的模型。太费时间了!!!
救世主PowerAI强势出击!
PowerAI让用户可以在配置了P100 GPU的IBM Power Systems上快速训练模型!
大概只用了一个小时的时间就训练了一万步。不过,这只用了一个GPU。 PowerAI的真正威力是能够以高达95%的效率在数百个GPU上进行分布式的深度学习。
在PowerAI的帮助下,IBM创造了在7个小时内识别一张新图像达到33.8%准确率的记录。它超过了微软以前的行业纪录,在10天内达到29.9%的准确率。
太快了!
Nimbix为开发者提供了在PowerAI平台上免费处理十个小时的试用帐户。你可以在这里进行注册。
注意:这个过程不是自动的,所以可能需要24小时才能审批通过。
申请通过后,你将收到一封电子邮件,其中包含有关确认和创建帐户的说明。
现在,你可以在这里登录了。
首先搜索PowerAI Notebooks
。
点击,然后选择 TensorFlow
。
选择机器类型:32 thread POWER8, 128GB RAM, 1x P100 GPU w/NVLink (np8g1)
。
服务器开启,将显示以下仪表板面板。当服务器的Status
变为Processing
时,就可以访问服务器了。
点击(click to show)
获取密码。
然后点击Click here to connect
启动Notebook。
使用用户名nimbix
和先前提供的密码进行登录。
点击New
下拉菜单并选择Terminal
,打开一个新的终端窗口。
跳出一个熟悉的界面:
注意:该终端可能不能在Safari中运行。
训练的步骤与我们在本地进行训练的步骤相同。如果你使用我的训练数据,那么可以克隆我的代码库:
git clone [https://github.com/bourdakos1/Custom-Object-Detection.git](https://github.com/bourdakos1/Custom-Object-Detection.git)
然后cd进入根目录:
cd Custom-Object-Detection
运行下面这个命令,下载我们之前提到的预先训练好的faster_rcnn_resnet101_coco
模型。
wget [http://storage.googleapis.com/download.tensorflow.org/models/object_detection/faster_rcnn_resnet101_coco_11_06_2017.tar.gz](http://storage.googleapis.com/download.tensorflow.org/models/object_detection/faster_rcnn_resnet101_coco_11_06_2017.tar.gz)
tar -xvf faster_rcnn_resnet101_coco_11_06_2017.tar.gz
mv faster_rcnn_resnet101_coco_11_06_2017/model.ckpt.* .
然后,再次设置PYTHONPATH
,因为这是一个新的终端:
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
最后运行训练命令:
python object_detection/train.py \
--logtostderr \
--train_dir=train \
--pipeline_config_path=faster_rcnn_resnet101.config
数据越多,则需要的步骤也越多。我的模型在接近4500步的时候非常稳定。然后,在大约20000步时达到峰值。我甚至做了20万步的训练,但是效果并不理想。
我建议每5000步左右下载一次模型,对其进行评估,以确保你的方向是正确的。
点击左上角的Jupyter
徽标,打开Custom-Object-Detection/train
。
下载编号最大的model.ckpt文件。
model.ckpt-STEP_NUMBER.data-00000-of-00001
model.ckpt-STEP_NUMBER.index
model.ckpt-STEP_NUMBER.meta
注意:一次只能下载一个文件。
注意:完成后,请务必点击机器上的红色电源按钮。否则,记时不会停止,时间会继续走下去。
要在代码中使用模型,需要将检查点文件(model.ckpt-STEP_NUMBER.*
)转换为推理图。
将刚刚下载的检查点文件复制到代码库的根目录中。
然后运行这个命令:
python object_detection/export_inference_graph.py \
--input_type image_tensor \
--pipeline_config_path faster_rcnn_resnet101.config \
--trained_checkpoint_prefix model.ckpt-STEP_NUMBER \
--output_directory output_inference_graph
记住执行:
export PYTHONPATH=$PYTHONPATH:`pwd`:`pwd`/slim
这时,应该可以看到一个新的output_inference_graph
目录和frozen_inference_graph.pb
文件。这就是我们需要的文件。
现在运行以下命令:
python object_detection/object_detection_runner.py
它会在test_images
目录中的所有图像上运行output_inference_graph/frozen_inference_graph.pb
中的对象检测模型,并将结果输出到output/test_images
目录中。
点击此处查看在“星球大战:原力觉醒”某个片段上运行模型后得到的结果。