NNDL:作业3

在Softmax回归的风险函数(公式(3.39))中如果加上正则化项会有什么影响?

(1)

在 Softmax 回归的风险函数中加入正则化项会对模型的训练产生影响。正则化项的作用是对模型的复杂度进行惩罚,防止过拟合的发生。

(2)

原书公式为:

                                        R(W)=-\frac{1}{N}\sum_{n=1}^{N}(y^{(n)})^{T}log\hat{y}^{(n)}

在加入正则化后损失函数为:

                                R(W)=-\frac{1}{N}\sum_{n=1}^{N}(y^{(n)})^{T}log\hat{y}^{(n)}+\lambda W^{T}W

求梯度得:

                              \frac{\partial R(W)}{\partial W}=-\frac{1}{N}\sum_{n=1}^{N}(\hat{y}^{(n)}-y^{(n)})x^{(n)}+2\lambda W

W更新:

                             W=W+\alpha \frac{1}{N}\sum_{n=1}^{N}(\hat{y}^{(n)}-y^{(n)})x^{(n)}-2\lambda W

加入正则化后,在更新参数时每次需要减去2\lambda W,使得参数不会太大,防止数值溢出。

你可能感兴趣的:(pytorch,学习,人工智能)