深度学习——回归问题

深度学习——回归问题

文章目录

  • 深度学习——回归问题
  • 线性回归
    • 一、什么是线性回归?
      • 梯度下降
      • 学习率
  • 二、逻辑回归

线性回归

一、什么是线性回归?

在这里插入图片描述
其中w是权重,b是偏移量。w和b共同称为模型参数。
损失函数L(f) = L(w,b)
线性回归的目的是找到合适的w和b使得损失函数最小。损失函数如下:
深度学习——回归问题_第1张图片
损失函数也成为Mean Squared Error (MSE)
找到损失函数后,通过损失函数找损失最小的函数f,也就是确定w和b。

梯度下降

梯度下降可以用来找最合适的w,b即确定最合适的function。
梯度下降的做法:分别对w和b求偏导。分别寻求最合适的w(b),是的损失最小。见李宏毅老师的图:
深度学习——回归问题_第2张图片

因为要找损失函数的最小值,所用要用到梯度下降。
梯度下降即求函数的导数或偏导数。
由中学知识我们知道,当f’(x)<0时,f(x)递减,f’(x)>0时,f(x)递增。所以当f’(x)<0时应该向右移动,当f’(x)>0时,应该向左移动。
梯度下降就可以理解为根据f’(x)的符号来使f(x)逐渐减小。
深度学习——回归问题_第3张图片

学习率

上面有提到根据梯度下降我们要移动,移动的大小即为学习率。

深度学习——回归问题_第4张图片

二、逻辑回归

线性回归的范围是(-∞,+∞),逻辑回归的范围是[0,1]。通过S型函数即可将线性回归转为逻辑回归。
在这里插入图片描述
在这里插入图片描述
函数图像如下所示:
深度学习——回归问题_第5张图片
损失函数如下:
深度学习——回归问题_第6张图片

你可能感兴趣的:(深度学习,深度学习,机器学习,神经网络)