吴恩达机器学习笔记:(二)代价函数

代价函数

本例中如下图所示:代价函数实际目的是为了通过寻找 θ1, θ2两个参数实现拟合的直线最接近数据点。
吴恩达机器学习笔记:(二)代价函数_第1张图片
本例中代价函数的定义 θ1, θ2
吴恩达机器学习笔记:(二)代价函数_第2张图片

寻找θ1,θ2参数最优值

寻找 θ1的最优解

当θ1 = 1时
吴恩达机器学习笔记:(二)代价函数_第3张图片
当θ1 = 0.5时
吴恩达机器学习笔记:(二)代价函数_第4张图片
当θ1 =0时
吴恩达机器学习笔记:(二)代价函数_第5张图片
如上图右侧所示,寻当θ1 的最优解相当于寻找曲线偏导数等于零的点
吴恩达机器学习笔记:(二)代价函数_第6张图片
上图为两个参数同时作用时候生成的数据三维图

下图为数据对应的等高线:
吴恩达机器学习笔记:(二)代价函数_第7张图片
吴恩达机器学习笔记:(二)代价函数_第8张图片
通过实际数据测试发现当在等高线最中央时拟合的直线最接近数据集。
吴恩达机器学习笔记:(二)代价函数_第9张图片

你可能感兴趣的:(机器视觉,Deep,learning,机器学习)