caffe 有关prototxt文件设置解读《三》 caffe的python接口——写solver.prototxt

1.下载数据的文件:get_XXX.sh (如:get_mnist.sh get_cifar10.sh) 2、将图像类型转化为lmdb的文件:create_XXX.sh(如:create_mnist.sh create_cifar10.sh) 3、配置文件:XXXX.prototxt 如:XXX_train_test.prototxt 这个文件是配置网络的,在个文件中定义网络模型。XXX_solver.prototxt 在这个文件中来对定义完的网络模型进行优化,设置相关参数的值。 4、训练完的模型保存在 .caffemodel 文件中,该文件可以被C、Python、matlab调用。

caffe的python接口——写solver.prototxt

转载链接:http://www.cnblogs.com/denny402/p/5679154.html


caffe在训练的时候,需要一些参数设置,我们一般将这些参数设置在一个叫solver.prototxt的文件里面,如下:


base_lr: 0.001
display: 782
gamma: 0.1
lr_policy: “step”
max_iter: 78200
momentum: 0.9
snapshot: 7820
snapshot_prefix: “snapshot”
solver_mode: GPU
solver_type: SGD
stepsize: 26067
test_interval: 782
test_iter: 313
test_net: “/home/xxx/data/val.prototxt”
train_net: “/home/xxx/data/proto/train.prototxt”
weight_decay: 0.0005



有一些参数需要计算的,也不是乱设置。

假设我们有50000个训练样本,batch_size为64,即每批次处理64个样本,那么需要迭代50000/64=782次才处理完一次全部的样本。我们把处理完一次所有的样本,称之为一代,即epoch。所以,这里的test_interval设置为782,即处理完一次所有的训练数据后,才去进行测试。如果我们想训练100代,则需要设置max_iter为78200.

同理,如果有10000个测试样本,batch_size设为32,那么需要迭代10000/32=313次才完整地测试完一次,所以设置test_iter为313.

 学习率变化规律我们设置为随着迭代次数的增加,慢慢变低。总共迭代78200次,我们将变化lr_rate三次,所以stepsize设置为78200/3=26067,即每迭代26067次,我们就降低一次学习率。 

下面是生成solver文件的python代码,比较简单:



# -*- coding: utf-8 -*-

from caffe.proto import caffe_pb2
s = caffe_pb2.SolverParameter()

path=’/home/xxx/data/’
solver_file=path+’solver1.prototxt’

s.train_net = path+’train.prototxt’
s.test_net.append(path+’val.prototxt’)
s.test_interval = 782  
s.test_iter.append(313)
s.max_iter = 78200

s.base_lr = 0.001
s.momentum = 0.9
s.weight_decay = 5e-4
s.lr_policy = ‘step’
s.stepsize=26067
s.gamma = 0.1
s.display = 782
s.snapshot = 7820
s.snapshot_prefix = ‘shapshot’
s.type = “SGD”
s.solver_mode = caffe_pb2.SolverParameter.GPU

with open(solver_file, ‘w’) as f:
    f.write(str(s))


你可能感兴趣的:(caffe,pycaffe系列)