Efficient Training of Very Deep Neural Networks for Supervised Hashing

1.介绍
这篇文章主要说如果高效的训练深层的神经网络。对于现存的模型,由于一些限制,比如梯度消失的情况,只能限于训练一些比较浅层的网络。而且这种模型的效率并不高。所以作者就提出来一种可以高效训练深层网络的方法。具体的是:训练过程当中引入辅助变量,通过更新辅助变量,来达到某一层的局部最优解。通过实验发现,这种方法可以训练64个隐藏层,每层1024个节点的网络,而训练的时间在3个小时左右。

2.Very Deep Supervised Hashing 方法
![图片][1]
[1]:http://img.blog.csdn.net/20160921144405917

你可能感兴趣的:(Efficient Training of Very Deep Neural Networks for Supervised Hashing)