机器学习(吴恩达)--线性回归算法-代价函数的理解

线性回归算法

【中英双语】机器学习(MachineLearning)-吴恩达

https://www.bilibili.com/video/av9912938/?from=search&seid=9877287749158953842

学习吴恩达的机器学习视频个人笔记

房屋交易问题

左边是房屋的面积右边是价格

机器学习(吴恩达)--线性回归算法-代价函数的理解_第1张图片

m 代表训练集中实例的数量(上面显示了四个训练集m=4)
x 代表特征/输入变量(左边的就是x)
y 代表目标变量/输出变量(右边的是y)
(x,y) 代表训练集中的实例
(x ⁽ⁱ⁾ ,y ⁽ⁱ⁾ ) 代表第 i 个观察实例(当i=1时,x⁽¹⁾是2104,x⁽¹⁾是460)
h 代表学习算法的解决方案或函数也称为假设(hypothesis)

机器学习(吴恩达)--线性回归算法-代价函数的理解_第2张图片

m表示训练集的数量,是预测的函数

机器学习(吴恩达)--线性回归算法-代价函数的理解_第3张图片

简化这个函数,把θ₀=0。

cost Function是代价函数:

cost function也叫作loss function,就是对hθ(x)函数进行评估的一个函数。

代价函数最重要的作用就是是用来度量预测错误的程度,通常来说,模型越准确,越接近真实,其cost function的值就越小。

机器学习(吴恩达)--线性回归算法-代价函数的理解_第4张图片

左边是猜测的几条函数,右边是上面定义的代价函数(cost function),横轴是左边函数的斜率,纵轴是代价函数的值

比如说θ₁=1,代价函数的结果是0。在右边(1,0)的位置。

θ₁=0.5,代价函数的结果是0.5。在右边(0.5,0.5)的位置。

θ₁=0.5,代价函数的结果是0.5。在右边(0.5,0.5)的位置。

θ₁=0,代价函数的结果是2.33333。在右边(0,2.33333)的位置。

把这些点连起来就获得了右边的图。

左边每一条线都对应着右边的一个点

比如浅蓝色的点代表左边浅蓝色的线,紫色的点代表左边紫色的线,深蓝色的点代表左边深蓝色的线。

代价函数的值越小就越接近正确。

你可能感兴趣的:(机器学习,机器学习,吴恩达,线性回归,代价函数)