Regularized linear regression(正则化线性回归)----吴恩达机器学习

Regularized linear regression

  • 1.引入
    • 1.1梯度下降法
    • 1.2正规方程法

1.引入

接着上一篇文章的讲述,在上一篇文章中,我们将代价函数变为 J ( θ ) = 1 2 m [ ∑ i = 1 m ( h θ ( x ) − y ) 2 + λ ∑ i = 1 n θ j 2 ] J(\theta)=\frac{1}{2m}[\sum_{i=1}^m(h_{\theta}(x)-y)^2+\lambda \sum_{i=1}^n\theta_j^2] J(θ)=2m1[i=1m(hθ(x)y)2+λi=1nθj2]接下来,我们将分别讨论梯度下降法和直接使用矩阵求逆方法在 J ( θ ) J(\theta) J(θ)改变之后发生的变化。

1.1梯度下降法

梯度下降法需要更新的 θ j \theta_j θj如下所示: θ j = θ j − α ∂ ∂ θ j J ( θ ) \theta_j=\theta_j-\alpha \frac{\partial}{\partial{\theta_j}}J(\theta) θj=θjαθjJ(θ) J ( θ ) J(\theta) J(θ)求导后我们可以发现 θ j \theta_j θj的更新由原来的 θ j = θ j − α 1 m ∑ i = 1 m ( h θ ( x i ) − y i ) x j i \theta_j=\theta_j-\alpha \frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^i)-y^i)x^i_j θj=θjαm1i=1m(hθ(xi)yi)xji变成了 θ 0 = θ 0 − α 1 m ∑ i = 1 m ( h θ ( x i ) − y i ) x j i ( θ 0 不 参 与 更 新 ) \theta_0=\theta_0-\alpha \frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^i)-y^i)x^i_j(\theta_0 不参与更新) θ0=θ0αm1i=1m(hθ(xi)yi)xji(θ0)
θ j = θ j − α [ 1 m ∑ i = 1 m ( h θ ( x i ) − y i ) x j i + λ m θ j ] \theta_j=\theta_j-\alpha[ \frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^i)-y^i)x^i_j+\frac{\lambda}{m}\theta_j] θj=θjα[m1i=1m(hθ(xi)yi)xji+mλθj]将第二个式子化简,我们可以得到 θ j = θ j ( 1 − α λ m ) − α 1 m ∑ i = 1 m ( h θ ( x i ) − y i ) x j i \theta_j=\theta_j(1-\alpha\frac{\lambda}{m})-\alpha \frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^i)-y^i)x^i_j θj=θj(1αmλ)αm1i=1m(hθ(xi)yi)xji其中, 1 − α λ m 1-\alpha\frac{\lambda}{m} 1αmλ是一个小于一但是很接近1的值

1.2正规方程法

之前我们有 θ = ( X T X ) − 1 X T y \theta=(X^TX)^{-1}X^Ty θ=(XTX)1XTy J ( θ ) J(\theta) J(θ)正则化后,变成了
Regularized linear regression(正则化线性回归)----吴恩达机器学习_第1张图片
这样做还有一个好处是,括号里的这一项一定可逆。

下节课我们将讲logistic regression的正则化对方法的具体改变。

你可能感兴趣的:(机器学习,coursera,正则化,线性回归,regularized,linear)