机器学习深度学习 | 吴恩达李宏毅

机器学习-吴恩达

【资源】 

中文笔记 | Markdown | 

 【记录】

批量梯度下降(BGD | 在每一次迭代时使用所有样本来进行梯度的更新)

随机梯度下降(SGD |每次迭代使用一个样本来对参数进行更新,使得训练速度加快 )

小批量梯度下降(MBGD |对批量梯度下降及随机梯度下降的折中:每次迭代使用 batch_size个样本来对参数进行更新)

BGD、SGD、MBGD-优缺点|

学习率learning rate | 圆更易收敛" data-link-title="归一化扁->圆更易收敛" contenteditable="true">归一化扁->圆更易收敛 |Feature Scaling | 多种误差 |常见特征缩放 | 为什么要特征缩放/归一化 | 链接tag里有更多笔记- -  |

逻辑回归&线性回归| 程序实现角度 | 回归 | 区别与联系 | 区别联系 |      

机器学习-李宏毅

【资源】

ML2019笔记 |  ★在线笔记 |

【2021笔记】-学习视频

01_Regression_P1

02_Regression_P2

03_GeneralGuidance_Overfitting

04_Local Minimum And Saddle Point

05_Batch and Momentum

06_Adaptive Learning Rate

07_Batch Normalization

08_Classification

09_CNN

10_Self-Attention P1

11_Self-Attention P2

12_Transformer P1

13_Transformer P2

14_GAN P1

15_GAN P2

16_GAN P3

17_GAN P4

18_BERT_P1

19_BERT_P2

20_BERT_P3

21_Auto-encoder_P1

22_Auto-encoder_P2

23_Adversarial Attack_P1

24_Adversarial Attack_P2

25_Explainable AI_P1

26_Explainable AI_P2

27_Domain Adaptation

28_Reinforcement Learning_P1

29_Reinforcement Learning_P2

30_Reinforcement Learning_P3

你可能感兴趣的:(MLDL,机器学习,人工智能)