说明:主要思想是微调使用ImageNet预训练的CaffeNet模型参数,用来对车颜色进行识别。为了不和其他文件混乱,我们在examples下新建文件夹finetune_myself。
caffenet需要图像均值文件,所以先计算均值文件。在finetune_myself下新建文件夹Image_mean,从imagenet中拷贝make_imagenet_mean.sh到finetune_myself下,更名为make_image_mean.sh(为了和imagenet区分),然后修改脚本如下:
EXAMPLE=examples/finetune_myself #该路径下为训练图像的lmdb文件 DATA=examples/finetune_myself/Image_mean #该路径为生成的均值文件保存的地方 TOOLS=build/tools $TOOLS/compute_image_mean $EXAMPLE/car_train_lmdb \ #这里的lmdb和自己的对应 $DATA/image_mean.binaryproto #生成的均值文件名字,这里为了区分改一下名字
(实验中发现直接用ImageNet的均值文件也没有什么问题,感觉均值文件影响并不大啊!!!)
在finetune_myself下新建文件夹,命名为models,将caffenet的train_val.prototxt、solver.prototxt和deploy.prototxt复制到此models文件夹里,然后,对模型进行修改。假设我们的训练集类别是m,那么fc8层的num_output需要修改成m,又由于finetune时用到的权重是根据层名匹配的,而fc8的num_output已经修改,该层的参数必须重新学习,所以我们把该层的名字也进行修改,如改为fc8_myself。具体修改如下。
(1) mean_file路径:"examples/finetune_myself/Image_mean/image_mean.binaryproto"
(2)假设训练集和测试集的lmdb文件在finetune_myself下,所以训练阶段的的data层:
data_param { source:"examples/finetune_myself/car_train_lmdb" batch_size: 50 #这里自己可以修改合适的batch大小 backend:LMDB }
同理,TEST阶段的data层也作同样的修改。即:
data_param{ source: "examples/finetune_myself/car_test_lmdb" batch_size:50 backend:LMDB }
(3)修改fc8层和相关层
将层名改为fc8_myself(当然其他也行),并修改权重的lr_mult=10,bias的lr_mult=20,目的是让非微调层学习更快。num_output修改为类别数。具体如下:
layer { name: "fc8_myself" type: "InnerProduct" bottom: "fc7" top: "fc8_myself" param { lr_mult: 10 decay_mult: 1 } param { lr_mult: 20 decay_mult: 0 } inner_product_param { num_output: 8 #根据类别修改,我做的实验为8类 weight_filler { type: "gaussian" std: 0.01 } bias_filler { type: "constant" value: 0 } } }与fc8相关的层也要修改:
layer { name:"accuracy" type:"Accuracy" bottom: "fc8_myself" bottom:"label" top:"accuracy" include { phase: TEST } }
layer { name: "loss" type: "SoftmaxWithLoss" bottom: "fc8_myself" bottom: "label" top: "loss" }
net:"examples/finetune_myself/models/train_val.prototxt",
还有
snapshot_prefix:"examples/finetune_myself/models"
此路径是训练过程得到的caffemodel和solverstate保存路径,按自己想保存的路径更改。
网络的名字name要与train_val.prototxt相同。然后修改fc8层和相关层:
layer { name: "fc8_myself" type: "InnerProduct" bottom: "fc7" top: "fc8_myself" inner_product_param { num_output: 8 #根据类别数改 } }
layer { name:"prob" type:"Softmax" bottom: "fc8_myself" top:"prob" }
finetune_myself下新建文件夹pre_train_models,运行
./scripts/download_model_binary.py examples/finetune_myself/pre_train_models即将文件下载在pre_train_models中。
./build/tools/caffe train –solver examples/finetune_myself/models/solver.ptototxt –weights examples/finetune_myself/pre_train_models/bvlc_reference_caffenet
精度还是挺高的。
./build/examples/cpp_classification/classification.bin **/**/deploy.prototxt **/***/models_iter_100000.caffemodel **/**/image_mean.binaryproto **/**/labels.txt **/**/car.jpg
white - "0.9963" gray - "0.0036" green - "0.0001"输出前三个预测结果