Deep Learning 系列(2):NN(神经网络)及反向传播算法

转自:http://blog.csdn.net/hanzihan123/article/details/38024641

前一章介绍了Deep Learning 中DBN算法(DL 系列一),发现当参数W经过stacked RBM 后,还需要Supervised Learning,即NN来优化参数。然而怎样去优化呢?

参见 UFLDL教程之神经网络与反向传导算法,以及Dark_Scope 的NN代码解读。

本章将结合DBN与NN的算法推导以及代码,针对重点作讲解。

代码下载:DeepLearnToolbox  

当DBN每一层训练完后,参数将传给NN作监督学习。见\DBN\dbnunfoldtonn.m

 

Deep Learning 系列(2):NN(神经网络)及反向传播算法_第1张图片

               

具体批量梯度下降法见:

\NN\nntrain.m   其中code:44-58

[html]  view plain copy
  1. for l = 1 : numbatches  
  2.      batch_x = train_x(kk((l - 1) * batchsize + 1 : l * batchsize), :);  
  3.        
  4.      %Add noise to input (for use in denoising autoencoder)  
  5.      if(nn.inputZeroMaskedFraction ~= 0)  
  6.          batch_x = batch_x.*(rand(size(batch_x))>nn.inputZeroMaskedFraction);  
  7.      end  
  8.        
  9.      batch_y = train_y(kk((l - 1) * batchsize + 1 : l * batchsize), :);  
  10.        
  11.      nn = nnff(nn, batch_x, batch_y);  
  12.      nn = nnbp(nn);  
  13.      nn = nnapplygrads(nn);  
  14.        
  15.      L(n) = nn.L;  
  16.        
  17.      n = n + 1;  
  18.  end  

参数更新为l=1:numbatches,(关于批量梯度下降可参见:机器学习系列一)

L(n)为n次迭代中,每次batchsize个样本残差和。

关于梯度下降法,在UFLDL中有介绍更快的算法L-BFGS和共轭梯度算法,寻找 代价函数 最小化时 的值。


参考文献:

1.  UFLDL Tutorial

2.  Dark 的博客

3.  RBM tutorial  (可见RBM以及DBN的推导,NN参数优化)

注:持续更新中。。。。


你可能感兴趣的:(深度学习)