8.softmax回归

1. 关于回归和多类分类

8.softmax回归_第1张图片

分类问题从回归的单输出变成了多输出,这个多输出的个数=类别的个数
置信度:置信度一词来自统计学,而统计学的本质是,用抽样的数据去估计整体的真实分布。例如,样本均值估计整体均值;还有,频率近似概率。而置信度的含义就是,你在用样本估计整体的时候,所得到的结论的“可信程度”,或者说,是对自己所的结论的一个量化的概率评价(打分)

2.从回归到多分类–均方损失

8.softmax回归_第2张图片

  1. 假设有n个类别,那么可以用最简单的一位有效编码来进行编码,标号就是一个长为n的向量。这个向量中,只有一个元素为1,对应的下标是第i个类别,其余元素为0。
  2. 如果训练出了一个模型,在做预测的时候,选取i使得最大化Oi的置信度的值作为预测,这个i就是预测的标号

3. 从回归到多类分类–无校验比例

8.softmax回归_第3张图片
正确类y的置信度oy要远远大于其他非正确类的oi,写成数学就是希望oy-oi要大于某一个阈值(oi是预测其他类的概率,oy是预测正确类的概率)

4. 从回归到多类分类–校验比例

8.softmax回归_第4张图片
希望使得输出是一个概率,现在的输出是o1~on的向量,将softmax作用到o上看,得到一个长为n的向量y_hat,每个元素非负,且相加为1.

5. softmax 和 交叉熵损失

8.softmax回归_第5张图片
解释: 假设标签y将是一个三维向量, 其中(1,0,0)对应于“猫”、(0,1,0)对应于“鸡”、(0,0,1)对应于“狗”:

在这里插入图片描述
现在去预测一个样本,假设这个样本是鸡,也就是真实的概率是y=[0,1,0],而我们经过softmax预测之后得到的预测概率是y_hat= [0.1,0.8,0.1],那么:

损失函数l(y,y_hat) = -0* 0.1 - 1* 0.8 - 0* 0.1 = -1 * 0.8 , 得到的就是对于真实类别y预测得到的概率y_hat。因为真实样本向量中只有一个为1,其余为0,那么上图中的计算结果中的右下角的y就是表示,这个样本的真实类别y。

对于真实类别的预测值求log,再求负数,所以可以看出,对分类问题来讲,不关心对对于非正确类的预测值,我们只关心对于正确类的预测值,它的置信度要够大

下面对于如何得到梯度的过程进行展开:



最后,根据计算结果可以发现,梯度就等于预测概率和真实概率的差值。

6. 总结

  • softmax回归是一个多类分类问题
  • 使用softmax操作值得到每个类的预测置信度(概率,非负,和相加为1)
  • 使用交叉熵来衡量预测和标号的区别(用交叉熵做损失函数)

你可能感兴趣的:(深度学习,回归,人工智能,深度学习)