day5 特征选择和多项式回归(Polynomial Regression)

1.特征选择 --> 得到不同的学习算法
2.多项式回归 -->使用线性回归的方法来拟合非常复杂的函数

比如对于一条曲线, ħθ(x) = θ0 +θ1x^1 + θ2x^2 + θ3*x^3
把单元线性回归 转化为多元线性回归 ,令

  • a1 = x^1
  • a2 = x^2
  • a3 = x^3
    即:ħθ(x) = θ0 +θ1a1 + θ2a2 + θ3*a3
    两个等式是相等的,再通过线性回归的方法,进行拟合
如果通过这种方法选择特征,那么特征归一化就会变得非常重要了(day4中学习过)

如果使用梯度下降方法,特征值必须归一化

对于二次函数,因为最终可能会有下降,所以可以用平方根函数来拟合,上升慢慢变得平缓,但是不会降下来

总结:在很多情况下,可以使用更复杂的函数取拟合数据,而不一定是直线,特别是,可以使用多项式函数。

你可能感兴趣的:(day5 特征选择和多项式回归(Polynomial Regression))