深度学习-初步概念

今天开始学习深度学习:

1、选择框架(学习库,例如Tensorflow、caffe、keras):为了实现ECO跟踪算法(一种基于相关滤波+深度特征的算法)中的VggNet模型(神经网络模型,常见的还有GoogleNet),从应用的方便性选择了caffe。

2、硬件:硬件为实验室现有平台

软件:window系统或者linux系统(Ubuntu )均可,本文用的window

第二天

1、ECO采用的深度特征文件为imagenet-vgg-m-2048.mat,是matlab的Matconvnet工具箱训练出来的。参考

https://blog.csdn.net/on2way/article/details/52959344    

遇到问题:

(1):文件夹位置与作者不同,data和models放在train里面

(2) :缺少文件cnn_imagenet_deploy和cnn_imagenet_get_batch,从https://blog.csdn.net/captainhailong/article/details/72638299下载

运行成功。接下来训练自己的数据集。

学到几个词汇:https://blog.csdn.net/qq_18668137/article/details/80883350

(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;

(2)iteration:1个iteration等于使用batchsize个样本训练一次;

(3)epoch:1个epoch等于使用训练集中的全部样本训练一次,通俗的讲epoch的值就是整个数据集被轮几次。

比如训练集有500个样本,batchsize = 10 ,那么训练完整个样本集:iteration=50,epoch=1.

batch: 深度学习每一次参数的更新所需要损失函数并不是由一个数据获得的,而是由一组数据加权得到的,这一组数据的数量就是batchsize。

batchsize最大是样本总数N,此时就是Full batch learning;最小是1,即每次只训练一个样本,这就是在线学习(Online Learning)。当我们分批学习时,每次使用过全部训练数据完成一次Forword运算以及一次BP运算,成为完成了一次epoch。
 

你可能感兴趣的:(深度学习)