ML-学习笔记-吴恩达

吴恩达ML-logistic介绍代价函数的时候,有点迷糊。见下图:

图-1
ML-学习笔记-吴恩达_第1张图片
因为这它定义了一个叫cost()的函数,我就突然把这个函数与之前线性回归(linear regression)的cost()函数搞混了,然后引发了我的疑惑。

首先我们在做 线性回归预测 是要先确定 预测函数 h()[hypthesis],然后将整个数据集代入 h() 并于标签值 y 做比较确定每组 参数(parameters) 的 lose-J(),假设使用 梯度下降算法GD 的基础上求得 最小代价–min(J()) 的基础上确定h()参数,来拟合数据。

对比分类问题,原来线性的损失函数 lose-J() 是一个线性的即假设J()全为凸函数,而分类问题中结果是非线性的–于是引入了激活函数[我们这里以*sigmoid()*为激活函数] ,使预测的结果符合我们的要求–这里课程有详细的推导,损失函数J()也发生了改变,如图-2。他的意思是:假设输入数据x被归为A类(和y=1,y=0是一个意思,只不过用A/B/C更容易理解,Ps:此组数据属于哪一类需要预先告诉计算机),然后根据此类对应的cost()计算方法(这里的cost不再是 (h()-y())^2只是计算方法改变了)最终的目的还是计算lose,确定参数拟合数据

你可能感兴趣的:(ML-学习笔记,机器学习)