Caffe各版本与源码全透析
ubuntu14.04下CPU的caffe配置
Caffe+ubuntu14.04+Cuda8.0安装
http://www.cnblogs.com/denny402/tag/caffe/
关于caffe里面image_data_layer的使用
Caffe学习系列(11):图像数据转换成db(leveldb/lmdb)文件
caffe神经网络框架的辅助工具(将图片转换为leveldb格式)
将图像转换成lmdb格式
Python lmdb
Mnist数据集创建lmdb或leveldb类型的数据
Caffe1——Mnist数据集创建lmdb或leveldb类型的数据
Caffe2——cifar10数据集创建lmdb或leveldb类型的数据
Caffe3——ImageNet数据集创建lmdb类型的数据
caffe 数据库LMDB的读写
计算图像均值
【Caffe代码解析】compute_image_mean
【Caffe代码解析】convert_imageset
制作train.txt和val.txt文件
txt和lmdb训练caffenet设置对比
计算图像均值
Caffe训练过程:test_iter test_interval等概念
关于 epoch、 iteration和batchsize
caffe层解读系列——BatchNorm
Mnist手写数字识别测试与分析
修改lenet网络进行训练
Caffe模型的结构
数据层及参数设置
数据层及参数
视觉层及参数
损失层及其参数设置
其他常用层及参数
激活函数
Blob,Layer和Net以及对应配置文件的编写
命令行解析
训练和测试自己的图片
caffe的总体流程是怎样的?
caffe层解读系列-softmax_loss
caffe层解读系列——hinge_loss
人脸识别:PairLoss
Windows下用VS2013加载caffemodel做图像分类
修改网络并训练模型
caffe基础
如何在Caffe中配置每一个层的结构
caffe学习笔记
caffe 参数介绍
solver优化方法
怎么在Caffe中配置每一个层的结构
【Caffe实践】 多目标输出探究
封装caffe-windows-master成动态链接库
如何快糙好猛地在Windows下编译CAFFE并使用其matlab和python接口
Caffe使用教程
What is 'lr_policy' in caffe?
使用caffe训练时Loss变为nan的原因
Net Surgery
Caffe中的各种loss函数适合哪些问题?
fine_tuning原理问题
Fine-tuning CaffeNet for Style Recognition on “Flickr Style” Data
假如有两个model,如何把其中一个model的某一层的权重赋给另一个model的对应层。
怎样用自己的数据集对caffe训练好的model进行fineture?
Caffe 是否支持多GPU并行训练?
caffe的proto里面的std是什么意思?怎么调?
global average pooling 与average pooling的区别是什么?
各种Pooling方法适用哪些情况?
如何通过loss曲线判断网络训练的情况
无监督逐层预训练目前是否还广泛应用于CNN的训练?
无监督学习是否被监督学习取代了?
应该怎么理解End to End 训练
caffe中image_mean的作用是什么?
出现过拟合的根本原因是什么
目前state of art 的人脸检测算法都是cnn based,如何应用于手机等嵌入式设备中?
caffe在训练过程中可以不使用validation吗?不使用有什么坏处(或者说使用validation有什么好处)?
http://blog.csdn.net/u012235274/article/category/6197462
深层学习为何要“Deep”(上)
如何解读Caffe源码
caffe源码解析 — caffe.proto
caffe数据格式(Google Protocol Buffers)
Caffe常用层参数介绍
Caffe源码解析2:SycedMem
caffe源码解析 — SyncedMemory.cpp
http://blog.csdn.net/seven_first/article/category/5721883
http://blog.csdn.net/seven_first/article/category/5721883
在可视化环境下进行Caffe网络设计
caffe基础(8):draw_net.py绘制网络结构
caffe示例实现之10LeNet的python接口
caffe的python接口封装原理与解析
pycaffe学习
pycaffe
caffe python layer
caffe中使用python layer
添加caffe python layer
在python中caffe示例实现之11逻辑回归及其深化
利用caffe的python接口进行训练时遇到的问题
用 caffe做图像分割实验时,loss值很诡异
caffe 练习4 ----利用python批量抽取caffe计算得到的特征------by 香蕉麦乐迪
caffe 练习3 用caffe提供的C++函数批量抽取图像特征------by 香蕉麦乐迪
训练一个全卷积网络,怎么做?
caffe调试 ubuntu1404+eclipse
(Caffe,LeNet)网络训练流程(二)
(Caffe,LeNet)反向传播(六)
利用Caffe做回归(regression)
训练可视化
caffe 画损失曲线和准确率曲线
cnn 调参经验
可视化
神经网络:caffe特征可视化的代码样例
caffe源码修改:抽取任意一张图片的特征
在caffe 中添加Crowd counting 数据层
在 caffe 中添加 FaceNet 中 Triplet Loss Layer
caffe 里面GPU 选择设置, 通过配置文件 读取GPU 的编号。
caffe adaboost
Linux下Caffe如何调试
*_train_test.prototxt,*_deploy.prototxt,*_slover.prototxt文件编写时注意事项
关于propagate_down
比如有4个全连接层A->B->C->D
a. 你希望C层的参数不会改变,C前面的AB层的参数也不会改变,这种情况也就是D层的梯度不往前反向传播到D层的输入blob(也就是C层的输出blob 没有得到梯度),你可以通过设置D层的propagate_down为false来做到。
propagate_down的数量与输入blob的数量相同,假如你某个层有2个输入blob,那么你应该在该layer的Param里面写上两行:
propagate_down : 0 # 第1个输入blob不会得到反向传播的梯度
propagate_down : 0 # 第2个输入blob不会得到反向传播的梯度
这样的话,你这个layer的梯度就不会反向传播啦,前面的所有layer的参数也就不会改变了
b. 你希望C层的参数不会改变,但是C前面的AB层的参数会改变,这种情况,只是固定了C层的参数,C层得到的梯度依然会反向传播给前面的B层。只需要将对应的参数blob的学习率调整为0:
你在layer里面加上param { lr_mult: 0 }就可以了,比如全连接层里面:
layer {
type: "InnerProduct"
param { # 对应第1个参数blob的配置,也就是全连接层的参数矩阵的配置
lr_mult: 0 # 学习率为0,其他参数可以看caffe.proto里面的ParamSpec这个类型
}
param { # 对应第2个参数blob的配置,也就是全连接层的偏置项的配置
lr_mult: 0 # 学习率为0
}
}
caffe关闭日志输出消息
可能对于算法实验阶段来说,我们需要caffe运行网络的时候,打印网络的相关参数消息。然而对于已经走向工程之路的caffe模型来说,我们有可能需要屏蔽那些没用的输出消息,因此这个时候就需要用到caffe的消息屏蔽。
1、在程序最开始运行地方,加入如下代码:
caffe group参数