这是ssd_pascal.py中的一段代码,因为在读ssd的代码,所以贴的这一段,一般别的solver param也差不多......
solver_param = {
# Train parameters
//base_lr:网络的基础学习速率,一般设一个很小的值,然后根据迭代到不同次数,对学习速率做相应的变化.lr过大不会收敛,过小收敛过慢
'base_lr': base_lr,
//weight_decay:权衰量,用于防止过拟合
'weight_decay': 0.0005,
//lr_policy:学习速率的衰减策略,详细见后面
'lr_policy': "step",
//stepsize:每40000次迭代减少学习率(这一项和lr_policy有关)
'stepsize': 40000,
//学习率变化的比率(这一项和lr_policy有关)
'gamma': 0.1,
//momentum:网络的冲量;学习的参数,不用变;上一次梯度更新的权重(找到的三个不一样的说法...)
'momentum': 0.9,
//iter_size:iter_size*batch size=实际使用的batch size。 相当于读取batchsize*itersize个图像才做一下gradient decent。 这个参数可以规避由于gpu不足而导致的batchsize的限制 因为你可以用多个iteration做到很大的batch 即使单次batch有限
'iter_size': iter_size,
//max_iter:最大迭代次数,告诉网络何时停止训练.太小达不到收敛,太大会导致震荡
'max_iter': 60000,
//snapshot:每40000次迭代打印一次快照(就是把当前数据保存下来,方便下次重用,如果电源不稳定容易意外关机建议这个值设小一点...对,就是我...)
'snapshot': 40000,
//display:每经过10次迭代,在屏幕上打印一次运行log(告诉你当前的loss之类的...)
'display': 10,
//取多次foward的loss作平均,进行显示输出
'average_loss': 10,
//type:选择一种优化算法,具体有哪些见后面
'type': "SGD",
//选择CPU or GPU
'solver_mode': solver_mode,
//device_id:选择几块GPU
'device_id': device_id,
//用于调试的?暂时不确定...以后补上
'debug_info': False,
//snapshot_after_train:true表示在训练完后把最后一次的训练结果保存下来
'snapshot_after_train': True,
# Test parameters
//test_iter:每次预测的迭代次数.一般test_iter*batch_size=所有test样本数,这样一次预测就可以覆盖所有test样本
'test_iter': [test_iter],
//test_interval:训练时每迭代10000次进行一次预测
'test_interval': 10000,
//
'eval_type': "detection",
//
'ap_version': "11point",
//test_initialization:false表示可以用上次保存的snapshot来继续训练
'test_initialization': False,
}
lr_policy
这个参数代表的是learning rate应该遵守什么样的变化规则,这个参数对应的是字符串,选项及说明如下:
type
到目前的版本,caffe提供了六种优化算法来求解最优参数,在solver配置文件中,通过设置type类型来选择。
type: "SGD"
),type: "AdaDelta"
),type: "AdaGrad"
),type: "Adam"
),type: "Nesterov"
) andtype: "RMSProp"
)