吴恩达深度学习--逻辑回归

2.2逻辑回归

       使用这种学习算法会得到的输出标签y,y在监督学习问题中全是0或者1,因此这是一种针对二分类问题的算法。

        给定的输入特征向量X和一幅图片对应,我希望识别这是否是一张猫的图片,因此我们想要一种算法能输出一个预测值,我们称之为y帽(yhat)。


吴恩达深度学习--逻辑回归_第1张图片

       形式上讲,yhat是当给定输入特征X时,预测标签y为1的概率。换种说法就是当x是一张图片。

       X是一个n_x维的向量,约定逻辑回归的参数是w,w也是一个n_x维的向量。参数b是一个实数。

        想要得到yhat,有一个传统方法。


吴恩达深度学习--逻辑回归_第2张图片

       但这对于二分类并不是一个好的算法,因为你希望yhat能够输出y为1的概率,因此yhat的值应该在0到1之间,上述方法所得到的值可能会比1大很多或者是一个负数。

       所以让逻辑回归的输出yhat等于对这个值应用sigmoid函数的结果。


吴恩达深度学习--逻辑回归_第3张图片

        如果水平轴的标签为z,那么函数sigmoid(z)是这样的,它从0平滑地升高到1。


吴恩达深度学习--逻辑回归_第4张图片

       这里用z表示

        当z是一个实数,sigmoid(z)就等于

吴恩达深度学习--逻辑回归_第5张图片


         注意:1、如果z非常大,e^(-z)就会接近0,sigmoid(z)就会非常接近1.

[if !supportLists]2、[endif]相反的,如果z非常小,sigmoid(z)就会非常接近0.

你可能感兴趣的:(吴恩达深度学习--逻辑回归)