CS229学习笔记(二)——分类问题与逻辑斯蒂回归(Classification and Logistic Regression)

    当仅能取小数目的离散值时,即为分类问题。本节着重分析二分(binary classification)问题,其中仅能取0和1。0又被称为负类(negative class),1又被称为正类(positive class),有时也会使用符号“-”、“+”表示。

(一)逻辑斯蒂回归(Logistic Regression)

    由于的取值发生了变化,我们相应修改形式:

                                         ,

这里                                         

被称为逻辑斯蒂方程(logistic function)或者sigmoid函数(sigmoid function)。函数图像如下:

同样,我们令,使得.

计算出的导数有:

                                               

                                                         

                                                         

                                                         

让我们假设:

                                                 

                                                 

将两式和为一式有:           。

假设个训练例子相互独立,则其最大似然函数可写为:

                                                 

                                                           

                                                           

与前例相同,我们仍然最大化对数似然函数

              

选用梯度上升的方式最大化对数似然函数,(在线性回归中,最大化对数似然函数即最小化代价函数,故在线性回归中选用的梯度下降法。)同样,我们先考虑一个训练例子的情况,:

推广到随机梯度上升法有:

                                       

与线性回归相同,同样可以使用牛顿法得到。

(二)感知器学习算法(The perceptron learning algorithm)

考虑修改逻辑斯蒂回归方法使得输出值只能为0和1,自然地,我们需要将设定为阈值函数:

同样令,如果我们使用如下更新规则:

                                         

则称为感知器学习算法。


 

你可能感兴趣的:(CS229学习笔记(二)——分类问题与逻辑斯蒂回归(Classification and Logistic Regression))