深度学习参数和loss总结

AI不惑境  -  学习率和batchsize如何影响模型的性能?

https://zhuanlan.zhihu.com/p/64864995

【AI不惑境】残差网络的前世今生与原理

https://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA==&mid=2649033134&idx=1&sn=69a5be0c1677e55a0311269b0e481242&chksm=8712b7d3b0653ec5211cfd57364bb7d4b8073e620f00f04de734ae2ae7b2e9179ae9d1468e58&token=1855353646&lang=zh_CN#rd

AI不惑有一系列 还有些深度的文章 推荐读读。

通过不断重置学习率来逃离局部极值点

https://blog.csdn.net/malefactor/article/details/78768210

 

你的模型真的陷入局部最优点了吗?

https://www.jiqizhixin.com/articles/2018-07-29-6

如何找到全局最小值?先让局部极小值消失吧

https://www.baidu.com/link?url=h3WNxKyhzoO3cUQFqtMEG2_Z518nZqBHjH1MPfU-RShNevrXMutXQvsTICDFEi-f&wd=&eqid=dbec404300008142000000045d677970

梯度下降学习率的设定策略

https://lumingdong.cn/setting-strategy-of-gradient-descent-learning-rate.html

Must Know Tips/Tricks in Deep Neural Networks阅读笔记

https://www.baidu.com/link?url=2PW2nHe1nOd9aRI5yOgNztv_C8XXajkvf6sKCNfDSpLKypUhmUog_phVUPA4Oq-OlKAPKaF_-XSLXot-brPB5q&wd=&eqid=dbec404300008142000000045d677970

如何避免陷入鞍点(局部最小)

https://blog.csdn.net/lfc2017/article/details/84864302

理解DL的局部最小

https://blog.csdn.net/JeremyCzh/article/details/80100601

深度学习基础--BP和训练--局部最优和鞍点

https://blog.csdn.net/wydbyxr/article/details/84025446

机器学习--“跳出”局部最小值

https://blog.csdn.net/qq_20880939/article/details/79814931

深度学习 - 解决局部最优点问题的方案

https://blog.csdn.net/maqunfi/article/details/82634529

深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

https://zhuanlan.zhihu.com/p/22252270

人脸识别损失函数综述(附开源实现)

https://zhuanlan.zhihu.com/p/51324547

人脸识别的损失函数解读

https://blog.csdn.net/qq_33948796/article/details/89309893

医学图像分割常用的损失函数

https://blog.csdn.net/Biyoner/article/details/84728417

 

 

 

 

 

你可能感兴趣的:(深度学习)