机器学习笔记(5)

【李宏毅机器学习任务五】

负责人:王佳旭

课程设计人:王佳旭

学习打卡内容:

推导LR损失函数(1)

学习LR梯度下降(2)

利用代码描述梯度下降(选做)(3)

Softmax原理(4)

softmax损失函数(5)

softmax梯度下降(6)



(1)推导Logistic Regression损失函数


解释:上边注释变形的原因找到了,这样做形式转换的前提就是当为C1分类时,y=1,当为C2分类时,y=0,等式左右两边只是数值相当。

(2)学习LR梯度下降


Softmax原理(4)


你可能感兴趣的:(机器学习笔记(5))