线性回归 linear regression

这节课好像吸收的东西有点少
总体来说,线性回归就是形如
线性回归 linear regression_第1张图片
其实就是对我们的特征x进行加权w再求和罢了。
他的误差计算公式为
这里写图片描述
那么就是想最小化 err(y,y) .
我们用矩阵的计算方法,其实可以直接求得
线性回归 linear regression_第2张图片
觉得这个推导,吴恩达老师的cs229讲的比林轩田老师讲的好,吴恩达来说用的是 矩阵迹的方法trace()。

linear regression 能否用在 linear classification 上

答案是可以的。
我们比较他们的误差函数
这里写图片描述

wTX 作为横坐标,误差err作为纵坐标.
当y=1时
线性回归 linear regression_第3张图片
当y=-1时
线性回归 linear regression_第4张图片

发现,不管怎样,始终有
这里写图片描述

所以
线性回归 linear regression_第5张图片

regression的 Ein(w) 可以作为classification Eout(w) 的上限
所以,只要我们让regression的 Ein(w) 尽可能的小,那么就可以让classification Eout(w) 尽可能的小。

我们如果面对的是分类问题,单用linear regression其实效果没有linear classification好。由于linear regression 很快,所以我们一般先用linear regression, 求出一个大概的值,作为 PLA或者 packet 的初始值。

你可能感兴趣的:(机器学习--林轩田,机器学习--台大林轩田,线性回归)