最近在学习深度学习,由于没有时间系统的学习,会遇到很多专业盲区,所以在这篇博客上面记录下来
http://blog.csdn.net/marising/article/details/6543943
batch_size详解:http://blog.csdn.net/ycheng_sjtu/article/details/49804041
epoch,iteration,batchsize区别:http://blog.csdn.net/anshiquanshu/article/details/72630012
http://blog.csdn.net/v_july_v/article/details/51812459#comments
http://simtalk.cn/2016/09/12/CNNs/
http://blog.csdn.net/qq_25762497/article/details/51052861
http://blog.csdn.net/yunpiao123456/article/details/52437794#t3
解释一下全连接层
RGB图像在CNN中的卷积
Letnet-5网络结构详解
http://blog.csdn.net/u011534057/article/details/51451958
http://simtalk.cn/2016/09/02/SVM%20and%20Softmax/
SSD:
https://zhuanlan.zhihu.com/p/24954433
http://blog.csdn.net/u010167269/article/details/52563573
http://blog.csdn.net/shuzfan/article/details/52711706
全连接层
learning rate decay:学习率衰减,学习率随着训练逐渐衰减
https://zhuanlan.zhihu.com/p/24720954
http://blog.csdn.net/hysteric314/article/details/54093734
https://timebutt.github.io/static/understanding-yolov2-training-output/
https://www.zhihu.com/question/49346370
http://blog.csdn.net/gzj_1101/article/details/79006993
https://zhuanlan.zhihu.com/p/27657196
tanh,relu,sigmod,softmax,以及他们的用法
机器学习常见激活函数比较和总结
关于激活函数的选择
http://blog.csdn.net/google19890102/article/details/44039761#t2
https://zhuanlan.zhihu.com/p/23906526
光流(optical flow)介绍和opencv实现
http://blog.csdn.net/zouxy09/article/details/8683859
深度学习的正则化
正则化方法:L1和L2 regularization、数据集扩增、dropout
Padding在卷积核移动逐渐扫描整体图时候,因为步长的设置问题,可能导致剩下未扫描的空间不足以提供给卷积核的,大小扫描 比如有图大小为5*5,卷积核为2*2,步长为2,卷积核扫描了两次后,剩下一个元素,不够卷积核扫描了,这个时候就在后面补零,补完后满足卷积核的扫描,这种方式就是same。如果说把刚才不足以扫描的元素位置抛弃掉,就是valid方式。
tensorflowname_scope, variable_scope理解
http://blog.csdn.net/hjimce/article/details/50866313
https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-08-batch-normalization/
训练集测试集验证集区别
dropout防止过拟合
inception model
迁移学习–深度迁移学习
【深度学习系列】迁移学习Transfer Learning