关于二分类,多分类,及多标签分类的损失函数详解及Pytorch实现

相信很多小伙伴最开始都是从分类任务入手深度学习这个领域的吧,这个就类似学习代码的第一课,“Hello world”一样。深度学习中,除了模型设计之外,最重要的想必就是选取合适的损失函数了。不过一般实验中,损失函数的调用十分简单,也就是一行代码的事情,但是最近发现,好多小伙伴,对于损失函数的基础意义及实现细节,还是不甚了解,所以在此对分类任务中常用的交叉熵损失函数进行详细的介绍。

1. 事件发生的概率与信息量和信息熵

损失函数的目标就是想通过计算网络输出与实际标签之间的差异,然后通过反向传播更新网络的权重,使得输出越来越接近实际标签值。对于分类任务来说,网络输出的结果就是预测每一个类别的概率值,接着就是如何设计损失函数,使得标签为正的类别的概率值越高。对于优化问题,我们需要设计目标函数存在一个下界,在优化过程当中,如果优化算法能够使目标函数不断减小,根据单调有界准则,这个优化算法就能证明是收敛有效的。这时候信息量的概念就引进来了,信息量的基本想法是:一个不太可能发生的事件居然发生了,我们收到的信息要多于一个非常可能发生的事件发生。从这句话中,我们可以看出,事件包含的信息量应与其发生的概率负相关。所以现在目标就是如何最小化我们的信息量,使得对应的概率也就可以变得越大。

 

关于二分类,多分类,及多标签分类的损失函数详解及Pytorch实现_第1张图片

 2. 相对熵(KL散度)

关于二分类,多分类,及多标签分类的损失函数详解及Pytorch实现_第2张图片

3. 交叉熵

关于二分类,多分类,及多标签分类的损失函数详解及Pytorch实现_第3张图片

关于信息量,与信息熵,相对熵以及交叉熵的具体解释和定义,可以参考这篇博文交叉熵损失函数(Cross Entropy Loss),讲解的十分详细。

4. 交叉熵损失函数

刚刚说到,交叉熵是信息论中的一个概念,它与事件的概率分布密切相关,这也就是为什么神经网络在使用交叉熵损失函数时会先使用softmax函数或者sigmoid函数将网络的输出转换为概率值。

4.1 多分类

每个样本只能有一个标签,比如ImageNet图像分类任务,或者MNIST手写数字识别数据集,每张图片只能有一个固定的标签。

对单个样本,假设真实分布为y,网络输出分布为\widehat{y},总的类别数为n,则在这种情况下,交叉熵损失函数的计算方法如下所示,我们可以看出,实际上也就是计算了标签类别为1的交叉熵的值,使得对应的信息量越来越小,相应的概率也就越来越大了。

关于二分类,多分类,及多标签分类的损失函数详解及Pytorch实现_第4张图片

 具体的Pytorch实现,如下所示,该函数,同时包含了softmax计算概率,以及后续计算交叉熵的两个步骤:

loss = nn.CrossEntropyLoss()

 4.2 多标签分类

多标签分类任务,即一个样本可以有多个标签,比如一张图片中同时含有“猫”和“狗”,这张图片就同时拥有属于“猫”和“狗”的两种标签。在这种情况下,我们将sigmoid函数作为网络最后一层的输出,得出每个类别预测为1的概率。以图像识别任务为例,网络最后一层的输出应该理解为:网络认为图片中含有这一类别物体的概率。而每一类的真实标签都只有两种可能值,即“图片中含有这一类物体”和“图片中不含有这一类物体”,这是一个二项分布。综上所述,对多标签类任务中的每一类单独分析的话,真实分布是一个二项分布,可能的取值为0或者1,而网络预测的分布可以理解为标签是1的概率。此外,由于多标签分类任务中,每一类是相互独立的,所以网络最后一层神经元输出的概率值之和并不等于1。对多标签分类任务中的一类任务来看,交叉熵损失函数为:

 关于二分类,多分类,及多标签分类的损失函数详解及Pytorch实现_第5张图片

 关于二分类,多分类,及多标签分类的损失函数详解及Pytorch实现_第6张图片

 具体的Pytorch实现,如下所示,该函数,同时包含了sigmoid计算概率,以及后续计算交叉熵的两个步骤:

loss = nn.BCELoss()

4.3 二分类

对于二分类,既可以选择多分类的方式,也可以选择多标签分类的方式进行计算,结果差别也不会太大。

你可能感兴趣的:(分类,pytorch,数据挖掘)