深度学习在多标签分类中的应用

多类分类与多标签分类

  • 多类分类(multi-class classification):有多个类别需要分类,但一个样本只属于一个类别
  • 多标签分类(multi-label classificaton):每个样本有多个标签

区别:
对于多类分类,最后一层使用softmax函数进行预测,训练阶段使用categorical_crossentropy作为损失函数
对于多标签分类,最后一层使用sigmoid函数进行预测,训练阶段使用binary_crossentropy作为损失函数

性能度量方法

主要分为基于样例(Example-based)的方法和基于标签(Label-based)的方法
深度学习在多标签分类中的应用_第1张图片

假设多标签分类器为 h() h ( ⋅ ) Yi Y i 为样例的真实标签; p p 为样例个数; f(x,y) f ( x , y ) 为实值函数,返回x的标签y的置信度; rankf(x,y) r a n k f ( x , y ) 返回由 f(x,) f ( x , ⋅ ) 推导的按降序排列的标签y的秩

基于样例的度量方法

subset Accuracy:

subsetacc=1pΣpi=1[h(xi)=Yi] s u b s e t a c c = 1 p Σ i = 1 p [ h ( x i ) = Y i ]

它测量的是完全正确的标签的比例
Accuracy:
Acc(h)=1pΣpi=1|Yih(xi)||Yih(xi)| A c c ( h ) = 1 p Σ i = 1 p | Y i ⋂ h ( x i ) | | Y i ⋃ h ( x i ) |

它衡量的是每个样例中正确标签占总标记的比例
Precision:
Prec(h)=1pΣpi=1|Yih(xi)||h(xi)| P r e c ( h ) = 1 p Σ i = 1 p | Y i ⋂ h ( x i ) | | h ( x i ) |

它衡量的是每个样例中正确标签占预测的标记的比例
Recall:
Recall(h)=1pΣpi=1|Yih(xi)||Yi| R e c a l l ( h ) = 1 p Σ i = 1 p | Y i ⋂ h ( x i ) | | Y i |

它衡量的是每个样例中正确标签占真正标签的比例
Fβ F β 度量
Fβ(h)=(1+β2)Precision(h)Recall(h)β2Precision(h)+Recall(h) F β ( h ) = ( 1 + β 2 ) ⋅ P r e c i s i o n ( h ) ⋅ R e c a l l ( h ) β 2 ⋅ P r e c i s i o n ( h ) + R e c a l l ( h )

Fβ F β 是Precision和Accuracy的综合度量,一般选择 β=1 β = 1
One-error:
oneerror(f)=1pΣpi=1([argmaxyYf(xi,y)]Yi) o n e − e r r o r ( f ) = 1 p Σ i = 1 p ( [ a r g m a x y ∈ Y f ( x i , y ) ] ∉ Y i )

它衡量的是置信度最大的标签不在该样例的标签中比率
Coverage:
coverage(f)=1pΣpi=1maxyYirankf(xi,y)1 c o v e r a g e ( f ) = 1 p Σ i = 1 p m a x y ∈ Y i r a n k f ( x i , y ) − 1

Ranking loss:
rloss=1pΣpi=11|Yi||Y¯i||{(y,y′′)|f(xi,y)f(xi,y′′),(y,y′′)Yi×Y¯i}| r l o s s = 1 p Σ i = 1 p 1 | Y i | | Y ¯ i | | { ( y ′ , y ″ ) | f ( x i , y ′ ) ≤ f ( x i , y ″ ) , ( y ′ , y ″ ) ∈ Y i × Y ¯ i } |

average Precision:
avgprec(f)=1pΣpi=11YiΣyYi|{y|rankf(xi,y)rankf(xi,y),yYi}|rankf(xi,y) a v g p r e c ( f ) = 1 p Σ i = 1 p 1 Y i Σ y ∈ Y i | { y ′ | r a n k f ( x i , y ′ ) ≤ r a n k f ( x i , y ) , y ′ ∈ Y i } | r a n k f ( x i , y )

对于one-error, coverage, ranking loss,度量指标越小越好,对coverage来说,最优值为 1pΣpi=1|Yi|1 1 p Σ i = 1 p | Y i | − 1 ,对于one-error和ranking来说,最优值为0。对于基于样例的其他度量方法,值越大越好,最大值为1。

基于标签的度量方法

基于标签的度量方法类似两类分类度量问题

TPj=|{xi|yjYiyjh(xi),1ip}|;FPj=|{xi|yjYiyjh(xi),1ip}|;TNj=|{xi|yjYiyjh(xi),1ip}|;FNj=|{xi|yjYiyjh(xi),1ip}|. T P j = | { x i | y j ∈ Y i ∧ y j ∈ h ( x i ) , 1 ≤ i ≤ p } | ; F P j = | { x i | y j ∉ Y i ∧ y j ∈ h ( x i ) , 1 ≤ i ≤ p } | ; T N j = | { x i | y j ∉ Y i ∧ y j ∉ h ( x i ) , 1 ≤ i ≤ p } | ; F N j = | { x i | y j ∈ Y i ∧ y j ∉ h ( x i ) , 1 ≤ i ≤ p } | .

TPj,FPj,TNj,FNj T P j , F P j , T N j , F N j 分别表示true positive, false positive, true nagtive, false nagtive。 TPj+FPj+TNj+FNj=p T P j + F P j + T N j + F N j = p
B(TPj,FPj,TNj,FNj) B ( T P j , F P j , T N j , F N j ) 表示具体的二分类度量如 B{Accuracy,Precision,Recall,Fβ} B ∈ { A c c u r a c y , P r e c i s i o n , R e c a l l , F β } .
Macro-average:
Bmacro(h)=1qΣqi=1B(TPj,FPj,TNj,FNj) B m a c r o ( h ) = 1 q Σ i = 1 q B ( T P j , F P j , T N j , F N j )

其中, q q 为标签空间
Micro-average:
Bmicro(h)=B(Σqj=1TPj,Σqj=1FPj,Σqj=1TNj,Σqj=1FNj) B m i c r o ( h ) = B ( Σ j = 1 q T P j , Σ j = 1 q F P j , Σ j = 1 q T N j , Σ j = 1 q F N j )

对基于标签的多标签度量,度量指标越大越好,最大值为1.

深度学习的应用

在使用深度学习之前,一般使用传统的机器学习方法来进行多标签分类,其中,Zhang总结了多种分析方法。
一般深度学习应用在多标签分类中,整体的深度学习结构没有太大的差异,也就是我们常用的CNN, RNN等一些结构,多标签分类与多类分类的主要差异就是在最后输出时多类分类只要找出概率最大的那一个标签值就行了,而多标签分类是找到前几个概率最大的标签值,也就是说要设定一个阈值(threshold),这个阈值可以人为设定或根据性能度量值设定。
Berger使用了两个模型,一个是CNN,另一个是GRU模型,使用的模型结构还是普通的深度学习结构,他就是在最后模型输出时根据阈值t来确定是否给这个样本打标签i,阈值的是定是由micro-F1得分度量的。
Kurata在研究多标签分类时仍然使用了经典的CNN结构,如下图:
深度学习在多标签分类中的应用_第2张图片

不过在最后的全连接层的参数系数有些特别,也就是上图中Hidden layer到output layer的系数是经过特别设置的。
假设你总共有标签的个数为5个,其分别是 Λ=[λ1,λ2,λ3,λ4,,λ5,] Λ = [ λ 1 , λ 2 , λ 3 , λ 4 , , λ 5 , ] ,假设共有两个样本一个样本可能有标签为[ λ1,λ4 λ 1 , λ 4 ],另一个样本标签为[ λ2,λ4,λ5 λ 2 , λ 4 , λ 5 ],Hidden layer的单元个数假设为10个,
Kurata把每个样本的标签作为一个标签共现模式(label co-occurrence pattern)有多少种不同的样本标签就有多少种不同的标签共现模式,然后对Hidden layer到output layer的权重参数进行设置,如下图:
深度学习在多标签分类中的应用_第3张图片

把共现的标签在系数中用一个常数C表示,其他的为0,对于这个例子,这样有2中不同的模式,因此只设定两行,系数中其他的行使用随机初始化,因此,前两行也被称为“专用神经单元”,这样经过后向传播进行训练。。
深度学习在多标签分类中的应用_第4张图片

在设置那个系数时,其取常数值C可以改为正则初始化的上界 UB=6nh+no U B = 6 n h + n o nh n h no n o 分别代表隐藏层和输出层单元的个数。
作者没说,但是这里需要注意一点,那就是隐藏层单元的个数至少为不同标签共现模式的个数。

Chen在多标签分类中使用的是CNN与RNN的结合体,在而RNN层使用的类似机器翻译的结构,如下图:
深度学习在多标签分类中的应用_第5张图片
不过他最后使用的RNN这层结构我不敢认同,不同类别的标签可能完全不相关,例如上图中的多标签animal, US和midnight,而机器翻译的RNN结构前后标签是有一定的联系的,所以他直接使用机器翻译的RNN结构不太恰当。总体上结构上的改进不大。
Zhang使用CNN结合deepwalk方法进行多标签的分类,并产生了很好的分类效果,结构如下图。deepwalk方法是借鉴了word2vec的原理进行空间的降维及相似性比较,得到嵌入表达,它本意是把嵌入表达学习引入到社交表达图中,而在此处使用其结构进行多标签分类,这里结合的CNN与deepwalk得到嵌入表达后运用KNN算法得到最终的多标签分类。
深度学习在多标签分类中的应用_第6张图片

参考文献
【Min-Ling Zhang, Zhi-Hua Zhou】A Review on Multi-Label Learning Algorithms
【Berger】Large Scale Multi-label Text Classification with SemanticWord Vectors
【Gakuto Kurata, Bing Xiang, Bowen Zhou】Improved Neural Network-based Multi-label Classification with Better Initialization Leveraging Label Co-occurrence
【Guibin Chen, Deheng Ye, Zhenchang Xing, Jieshan Chen, Erik Cambria】Ensemble Application of Convolutional and Recurrent Neural Networks for Multi-label Text Categorization
【Wenjie Zhang, Junchi Yan, Xiangfeng Wang and Hongyuan Zha】Deep Extreme Multi-label Learning
【Bryan Perozzi,Rami Al-Rfou,Steven Skiena】DeepWalk: Online Learning of Social Representations

你可能感兴趣的:(深度学习,自然语言处理,自然语言处理)