线性回归的代价函数

课时七 代价函数

Cost function: 找出最有可能的直线和数据拟合 ≈ 平方误差函数

Hypothesis:
h θ ( x ) = θ 0 + θ 1 x h_θ(x) = \theta_0 + \theta_1x hθ(x)=θ0+θ1x

θ i 称 为 模 型 参 数 \theta_i 称为模型参数 θi

I d e a : θ 0 , θ 1 以 便 h θ ( x ) 接 近 训 练 实 例 ( x , y ) Idea: \theta_0, \theta_1以便 h_\theta(x) 接近训练实例(x,y) Idea:θ0,θ1便hθ(x)(x,y)

Parameters:
要 求 的 值 : θ 0 , θ 1 要求的值:\theta0,\theta1 θ0,θ1

Cost Function(也称平方误差函数)):
J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J(θ_0,θ_1)=\frac{1}{2m}\sum_{i=1}^m(h_\theta(x^{(i)})−y^{(i)})^2 J(θ0,θ1)=2m1i=1m(hθ(x(i))y(i))2
平方误差代价函数是解决回归问题最常用的手段-(房价预测)

1 m 是 为 了 减 小 平 均 误 差 ( 预 测 值 和 真 实 值 的 差 的 平 方 和 ) , m 代 表 样 本 容 量 , 1 2 作 为 系 数 为 了 求 导 后 可 以 约 掉 \frac{1}{m} 是为了减小平均误差(预测值和真实值的差的平方和),m代表样本容量,\frac{1}{2}作为系数为了求导后可以约掉 m1()m21

目标:
m i n i m i z e ( θ 0 , θ 1 ) J ( θ 0 , θ 1 ) minimize(θ_0,θ_1) J(\theta_0,\theta_1) minimize(θ0,θ1)J(θ0,θ1)

你可能感兴趣的:(机器学习#线性回归,ML,机器学习,线性回归,代价函数)