第一周 - Model and Cost Function

模型表示

m:表示训练样本数量
x:表示输入的特征,也被称为特征量
y:表示输出变量,或目标变量
(x,y):表示一个训练样本
(x(i),y(i)):表示第i个训练样本,其中i为索引,并不是幂运算
h:代表hypothesis(假设),表示一个从x到y的函数映射。
设计学习算法的时候,需要思考的是怎么得到这个假设h。
h表示:hθ(x) = θ0 + θ1x,其中hθ(x) 可缩写为h(x) 。
这个模型被称为线性回归(linear regression)模型。

第一周 - Model and Cost Function_第1张图片
supervised learning.png

Cost Function(损失函数、代价函数)

损失函数:用于衡量模型与实际样本数据的差距,也就是损失程度。
对于大多数问题,特别是回归问题,损失函数使用平方误差函数,如图:

回归损失函数.png
在后续课程中,我们还会谈论其他的代价函数。
h函数(hypothesis)的目标是使J(θ 01)(损失函数)最小。

课程总结

第一周 - Model and Cost Function_第2张图片
内容总结.png

J(θ01)损失函数两种图形表示

第一周 - Model and Cost Function_第3张图片
损失函数三维图形.png

contour plot(轮廓图):同一条线上的J(θ 01)相等。
第一周 - Model and Cost Function_第4张图片
损失函数轮廓图.png

我们后面会遇到更复杂、更高维度、更多参数的情况,而这些情况是很难画出图的,因此更无法将其可视化,因此我们真正需要的是编写程序来找出这些最小化代价函数的θ0和θ1的值。
在下一节视频中,我们将介绍一种算法,能够自动地找出能使代价函数 J最小化的参数θ0和θ1的值。

你可能感兴趣的:(第一周 - Model and Cost Function)