机器学习笔记(十)——Logistic Function AND Softmax Function

一、说明

        在逻辑回归和一些机器学习算法中, Logistic函数和Softmax函数是常用到的,今天就先讨论下这两个函数。

二、Logistic Function

        Logistic function一般用于二分类问题,它的函数定义如下:

f(x)=11+ex(1)

它的图像如下:
机器学习笔记(十)——Logistic Function AND Softmax Function_第1张图片

由于logistic 函数的图形很像S,所以也叫sigmod 曲线。下面求一下logistic函数的导数,它在机器学习算法的推导过程中可能用到。

f(x)=[(1+ex)1]=(1+ex)2ex(1)=ex(1+ex)2=11+exex1+ex=11+ex1+ex11+ex=11+ex(111+ex)=f(x)[1f(x)]

f(x)=f(x)[1f(x)]
通过logistic函数,可以把变量 x 映射到[0, 1]之间,在分类问题上,x是训练集上数据和对应维度特征参数的组合: θTx+b , 具体会在后边讲到。

三、Softmax Function

Softmax function 是sigmod 函数的扩展,它可以用于多分类问题。它的定义如下所示:

Yk=ϕ(zk)=ezkKi=1ezi,k=1,2,,K

其中, z 往往是关于参数和样本数据的复合函数,softmax 函数的目的是求使得 Yk 取值最大的 z 中的参数, k 表示有k个分类。
机器学习笔记(十)——Logistic Function AND Softmax Function_第2张图片
图中的 P(t|z) 表示对于给定的输入 z ,它属于t的概率值。关于具体的推导,可参照文献2. 但是注意,文献2 中的 ϕK=ϕieβi , 有问题请随时留言。

四、参考文献

  1. http://peterroelants.github.io/posts/neural_network_implementation_intermezzo02/
  2. http://blog.csdn.net/hejunqing14/article/details/48980321

你可能感兴趣的:(机器学习)