本人对于 MXNet 官方文档的 github 翻译页面:
https://github.com/ironyoung/mxnet/blob/master/docs/tutorials/computer_vision/image_classification.md
这个教程中,我们将标签分配给某张图片,并得到标签符合程度的评分高低。下列图片 (source) 展示了一个例子:
获取教程中的源代码:GitHub.
针对特定的数据集训练模型,使用 train_dataset.py
。例如:
python train_mnist.py
mkdir model; python train_mnist.py --model-prefix model/mnist
python train_mnist.py --model-prefix model/mnist --load-epoch 8
python train_mnist.py --lr .1 --lr-factor .9 --lr-factor-epoch .5
python train_mnist.py --network lenet --gpus 0
为了使用多块 GPU,需要指定列表;例如: ---gpus 0,1,3.
To see more options, use --help
.
为了加速训练过程,可以利用多台电脑进行训练。
../../tools/launch.py -n 2 python train_mnist.py --kv-store dist_sync
你可以任意使用同步的 SGD dist_sync
或者异步的 SGD
dist_async
(SGD:随机梯度下降法)。
$ cat hosts
172.30.0.172
172.30.0.171
-H
选项传递这个文件: ../../tools/launch.py -n 2 -H hosts python train_mnist.py --kv-store dist_sync
cp -r ../../python/mxnet .
cp -r ../../lib/libmxnet.so mxnet
然后在运行之前,将此文件夹同步到其他电脑 /tmp/mxnet
中:
../../tools/launch.py -n 2 -H hosts --sync-dir /tmp/mxnet python train_mnist.py --kv-store dist_sync
更多的安装选项,例如使用 YARN
,以及关于如何编写分布式训练的程序的信息,请参见教程.
你有几个选项用于生成预测值:
有两种方式用于向 MXNet 中输入数据:
将所有例子打包到一个或多个压缩的 recordio
文件中。更多有关信息请参见 逐步教程 和 使用文档。需要在打包时避免一个常见的疏忽:随机化图片列表。这回造成训练失败,例如 accuracy
在几轮训练中都保持为 0.001。
注意: 我们自动下载了几个小型数据集,例如 mnist
和 cifar10
。
对于小数据集而言,可以被简单地导入到内存中,这里是一个例子:
from sklearn.datasets import fetch_mldata
from sklearn.utils import shuffle
mnist = fetch_mldata('MNIST original', data_home="./mnist")
# shuffle data
X, y = shuffle(mnist.data, mnist.target)
# split dataset
train_data = X[:50000, :].astype('float32')
train_label = y[:50000]
val_data = X[50000: 60000, :].astype('float32')
val_label = y[50000:60000]
# Normalize data
train_data[:] /= 256.0
val_data[:] /= 256.0
# create a numpy iterator
batch_size = 100
train_iter = mx.io.NDArrayIter(train_data, train_label, batch_size=batch_size, shuffle=True)
val_iter = mx.io.NDArrayIter(val_data, val_label, batch_size=batch_size)
# create model as usual: model = mx.model.FeedForward(...)
model.fit(X = train_iter, eval_data = val_iter)
下列因素可以极大提高性能:
输入数据:
数据格式。使用 .rec
数据格式。
解码线程的数量。默认情况下,MXNet 使用 CPU 线程来解码图片,可以每秒解码多余 1 Kb 的图片。如果你在使用高档的 CPU 或者性能强劲的 GPU,可以增加线程数量。
数据存储位置。任何本地或者分布式文件系统(HDFS, Amazon S3)都可以。然而,如果多台电脑同时读取网络共享文件系统(network shared file system,NFS)中的数据,你可能会遇到问题。
批处理尺寸。我们推荐使用 GPU 显存的最大容量来容纳。当尺寸取值太大时,可能会造成收敛速度变慢。一个对于 CIFAR 10 数据库的安全批处理尺寸大约是 200;对于 ImageNet 1K,批处理尺寸大小可以超过 1 Kb。
如果你用到了多块 GPU,需要使用 kvstore
。更多信息请参见这份指导文档.
对于单台电脑而言,默认参数 local
一般足够。对于大小超过 100 MB 的模型,例如 AlexNet 和 VGG,你可能想要使用参数 local_allreduce_device
。参数 local_allreduce_device
相较于其他参数使用了更多的 GPU 显存。
对于多台电脑而言,我们首先推荐尝试使用参数 dist_sync
。如果这个模型太大,或者你使用到了大量的电脑,你可能想要使用参数 dist_async
。
name | hardware | software |
---|---|---|
GTX980 | Xeon E5-1650 v3, 4 x GTX 980 | GCC 4.8, CUDA 7.5, CUDNN 3 |
TitanX | dual Xeon E5-2630 v3, 4 x GTX Titan X | GCC 4.8, CUDA 7.5, CUDNN 3 |
EC2-g2.8x | Xeon E5-2670, 2 x GRID K520, 10G Ethernet | GCC 4.8, CUDA 7.5, CUDNN 3 |
- 数据集
name | class | image size | training | testing |
---|---|---|---|---|
CIFAR 10 | 10 | 28 × 28 × 3 | 60,000 | 10,000 |
ILSVRC 12 | 1,000 | 227 × 227 × 3 | 1,281,167 | 50,000 |
python train_cifar10.py --batch-size 128 --lr 0.1 --lr-factor .94 --num-epoch 50
1 GTX 980 | 2 GTX 980 | 4 GTX 980 |
---|---|---|
842 img/sec | 1640 img/sec | 2943 img/sec |
- 准确率 vs 迭代次数(交互式图表):
train_imagenet.py
with --network vgg
Cluster | machines | GPUs | batch size | kvstore | epoch time |
---|---|---|---|---|---|
TitanX | 1 | 1 | 96 | none |
14,545 |
- | - | 2 | - | local |
19,692 |
- | - | 4 | - | - | 20,014 |
- | - | 2 | - | local_allreduce_device |
9,142 |
- | - | 4 | - | - | 8,533 |
- | - | - | 384 | - | 5,161 |
train_imagenet.py
with --network inception-bn
Cluster | machines | GPUs | batch size | kvstore | epoch time |
---|---|---|---|---|---|
GTX980 | 1 | 1 | 32 | local |
13,210 |
- | - | 2 | 64 | - | 7,198 |
- | - | 3 | 128 | - | 4,952 |
- | - | 4 | - | - | 3,589 |
TitanX | 1 | 1 | 128 | none |
10,666 |
- | - | 2 | - | local |
5,161 |
- | - | 3 | - | - | 3,460 |
- | - | 4 | - | - | 2,844 |
- | - | - | 512 | - | 2,495 |
EC2-g2.8x | 1 | 4 | 144 | local |
14,203 |
- | 10 | 40 | 144 | dist_sync |
1,422 |
- 收敛
单机 :
python train_imagenet.py --batch-size 144 --lr 0.05 --lr-factor .94 \
--gpus 0,1,2,3 --num-epoch 60 --network inception-bn \
--data-dir ilsvrc12/ --model-prefix model/ilsvrc12
10 x g2.8x
: hosts
包含 10 台电脑的私有 IP 地址
../../tools/launch.py -H hosts -n 10 --sync-dir /tmp/mxnet \
python train_imagenet.py --batch-size 144 --lr 0.05 --lr-factor .94 \
--gpus 0,1,2,3 --num-epoch 60 --network inception-bn \
--kv-store dist_sync \
--data-dir s3://dmlc/ilsvrc12/ --model-prefix s3://dmlc/model/ilsvrc12
注意: Amazon S3 上偶尔的不稳定性可能会造成训练中断或者频繁生成错误,首先需要组织下载数据到 /mnt
文件夹中。