吴恩达机器学习笔记2——logistic回归3

吴恩达机器学习笔记2——logistic回归3_第1张图片
整体代价函数J(θ)
单个样本的代价 Cost(h(x),y),为了使之不要分类写,可以写成上图中下面这一行式子

吴恩达机器学习笔记2——logistic回归3_第2张图片

不要忘记 logistic回归的h(x)=p(y=1|x,θ),在给定x和θ的前提下,分类为1的概率。
如h(x)=0.7, 分类为1的概率是70%。

梯度下降来最小化代价函数吴恩达机器学习笔记2——logistic回归3_第3张图片

发现用梯度下降算法时,算出来的θ更新的式子貌似和线性回归时一样。但其实由于h(x)不同,所以他们并不相同!

你可能感兴趣的:(机器学习,机器学习)