Logistic回归-代价函数求导过程 | 内含数学相关基础

 本篇文章是针对已经学习过 Logistic Rregression 部分知识,只对其 Cost function 求导过程展开详述。

 作者 | ZJ

Github: Logistic回归-代价函数求导过程 | 内含数学相关基础

相关函数求导公式

先复习回顾下一些数学基础,帮助推导过程可以更好的理解。下面列举的公式都是,接下来的推导中会用到的,没有涉及到的公式,此处不再列举。

  • 常数项求导

    常数项

  • 以 e 为底的指数求导公式

    e 为底的指数求导

  • 对数复合求导公式

    对数复合求导公式

  • 幂函数复合求导公式

    幂函数复合求导公式

  • 函数的和、差、积、商的求导法则

    函数的和、差、积、商的求导法则,都可导,则:

    (1) 和差求导

    (2) 乘积求导

    (3) 常数乘函数

    (4) 商求导

  • 复合函数求导法则

    复合求导复合求导复合求导这里写图片描述 都可导,则复合函数 这里写图片描述 的导数为

    这里写图片描述


Logistic 回归的 Cost function 的推导过程:

之前采用的是梯度下降算法用来求函数的最小值。

好吧,来吧正式开始了,有了以上的数学求导基础,接下来就容易多了,公式嘛,当初上学时,老师常说的一句话:“背过,记住!”

Logistic回归的代价函数可以统一写成如下一个等式

这里写图片描述

其中:
Logistic回归-代价函数求导过程 | 内含数学相关基础_第1张图片

这里写图片描述

下面开始我们的推导过程:如果要求这里写图片描述 对某一个参数这里写图片描述的偏导数,则:

  • 1.根据求导公式,可以先把常数项 这里写图片描述提取出来,这样就只需要对求和符号内部的表达式求导,即:

(1) 这里写图片描述

其中 K(θ)’ 为:(为方便显示,先把右上角表示第i个样本的上标去掉)

这里写图片描述

  • 2.根据对数复合求导公式,
    这里写图片描述
    对 K(θ)’ 继续求导可得:

(2) 这里写图片描述

之后 需要对 这里写图片描述

现在 根据上面提到的

  • 幂函数复合求导公式

这里写图片描述

  • 以 e 为底的指数求导公式

这里写图片描述

先对这里写图片描述求导:

根据上面的已知公式:

这里写图片描述

依据上面的商求导公式可得:

这里写图片描述

Logistic回归-代价函数求导过程 | 内含数学相关基础_第2张图片

Logistic回归-代价函数求导过程 | 内含数学相关基础_第3张图片

Logistic回归-代价函数求导过程 | 内含数学相关基础_第4张图片

Logistic回归-代价函数求导过程 | 内含数学相关基础_第5张图片

将 (3) (4) 代入 (2) 中 ,可得:

Logistic回归-代价函数求导过程 | 内含数学相关基础_第6张图片

Logistic回归-代价函数求导过程 | 内含数学相关基础_第7张图片

Logistic回归-代价函数求导过程 | 内含数学相关基础_第8张图片

推导结果

Logistic回归-代价函数求导过程 | 内含数学相关基础_第9张图片

结论:Logistic Regression 的目的是 求解一组最佳拟合参数 θ 。这个求解的过程是由最优化算法完成的。

参考文献:

[1] 玄天妙地 .第三周:逻辑回归代价函数求导过程 [OL]

你可能感兴趣的:(机器学习)