【持续学习系列(四)】《Lifelong-RL》

一、论文信息

1 标题

Lifelong-RL: Lifelong Relaxation Labeling for Separating Entities and Aspects in Opinion Targets

2 作者

Lei Shu, Bing Liu, Hu Xu, and Annice Kim

3 研究机构

  1. Department of Computer Science, University of Illinois at Chicago, USA
  2. Center for Health Policy Science and Tobacco Research, RTI International, USA

二、主要内容

这篇论文旨在解决意见挖掘中的一个重要问题:将意见目标(opinion targets)分为实体(entities)和方面(aspects)。意见目标可以是实体(如产品或服务的整体)或实体的某个方面(如产品的特性或属性)。为了有效地进行意见挖掘,需要区分这些目标,因为它们代表了关于意见的不同方面。论文提出了一种新的算法Lifelong-RL,该算法基于终身机器学习和松弛标签(relaxation labeling)来解决这个问题。

三、相关研究

相关研究包括目标提取方法、情感分类、转移学习、多任务学习以及终身机器学习。这些研究为本文提供了理论基础和方法论支持。

四、解决方案

松弛标签算法(Relaxation Labeling, RL)

输入:

  • G = ( V , E ) G = (V, E) G=(V,E),其中 V V V 是节点集合, E E E 是边集合。
  • 每个节点 t i ∈ V t_i ∈ V tiV 与一个多项式分布 P ( L ( t i ) ) P(L(t_i)) P(L(ti)) 相关联,表示标签 L ( t i ) L(t_i) L(ti) 的概率。
  • 每条边 ( t i , t j ) ∈ E (t_i, t_j) ∈ E (ti,tj)E 与两个条件概率分布 P ( L ( t i ) ∣ L ( t j ) ) P(L(t_i)|L(t_j)) P(L(ti)L(tj)) P ( L ( t j ) ∣ L ( t i ) ) P(L(t_j)|L(t_i)) P(L(tj)L(ti)) 相关联,表示标签 L ( t j ) L(t_j) L(tj) 对标签 L ( t i ) L(t_i) L(ti) 的影响以及反之。

计算过程:

  1. 初始化每个节点的标签分布 P 0 ( L ( t i ) ) P_0(L(t_i)) P0(L(ti))
  2. 对于每个迭代 r r r,计算每个节点的标签分布的变化量 Δ P r + 1 ( L ( t i ) ) ΔP_{r+1}(L(t_i)) ΔPr+1(L(ti)),根据邻居节点的标签和条件概率分布。
  3. 更新每个节点的标签分布 P r + 1 ( L ( t i ) ) P_{r+1}(L(t_i)) Pr+1(L(ti)),直到收敛。

输出:

  • 每个节点的最终标签 L ( t i ) L(t_i) L(ti),即其最高概率的标签。

数学公式:

  • Δ P r + 1 ( L ( t i ) ) ΔP_{r+1}(L(t_i)) ΔPr+1(L(ti)) 的计算公式:
    Δ P r + 1 ( L ( t i ) ) = ∑ t j ∈ N e ( t i ) w ( t j ∣ t i ) ⋅ ∑ y ∈ Y ( P ( L ( t i ) = y , L ( t j ) = y ) ⋅ P r ( L ( t j ) = y ) ) \Delta P_{r+1}(L(t_i)) = \sum_{t_j \in Ne(t_i)} w(t_j|t_i) \cdot \sum_{y \in Y} (P(L(t_i) = y, L(t_j) = y) \cdot P_r(L(t_j) = y)) ΔPr+1(L(ti))=tjNe(ti)w(tjti)yY(P(L(ti)=y,L(tj)=y)Pr(L(tj)=y))
  • 更新后的标签分布 P r + 1 ( L ( t i ) ) P_{r+1}(L(t_i)) Pr+1(L(ti)) 的计算公式:
    P r + 1 ( L ( t i ) ) = P r ( L ( t i ) ) ( 1 + Δ P r + 1 ( L ( t i ) ) ) ∑ y ∈ Y P r ( L ( t i ) = y ) ( 1 + Δ P r + 1 ( L ( t i ) = y ) ) P_{r+1}(L(t_i)) = \frac{P_r(L(t_i))(1 + \Delta P_{r+1}(L(t_i)))}{\sum_{y \in Y} P_r(L(t_i) = y)(1 + \Delta P_{r+1}(L(ti) = y))} Pr+1(L(ti))=yYPr(L(ti)=y)(1+ΔPr+1(L(ti)=y))Pr(L(ti))(1+ΔPr+1(L(ti)))
  • 最终标签 L ( t i ) L(t_i) L(ti) 的选择:
    L ( t i ) = arg max ⁡ y ∈ Y P ( L ( t i ) = y ) L(t_i) = \argmax_{y \in Y} P(L(t_i) = y) L(ti)=yYargmaxP(L(ti)=y)

终身机器学习(Lifelong Machine Learning, LML)

输入:

  • 知识库(Knowledge Base, KB),包含过去任务中提取的图和分类结果。
  • 当前任务的图 G ′ = ( V ′ , E ′ ) G' = (V', E') G=(V,E) 和节点的初始标签分布。

计算过程:

  1. 使用过去任务中的知识来帮助当前任务的标签分布初始化。
  2. 利用过去任务中的目标标签来调整当前任务的初始标签概率分布。
  3. 结合松弛标签算法进行迭代更新,直到收敛。

输出:

  • 当前任务中每个节点的最终标签。

数学公式:

  • 初始化概率分布 P 0 ( L ( t i ) ) P_0(L(t_i)) P0(L(ti)) 的更新:
    P L L 1 , 0 ( L ( t ) ) = P d u + 1 , 0 ( L ( t ) ) + λ ⋅ C D s L ( t ) D + λ D P_{LL1,0}(L(t)) = P_{du+1,0}(L(t)) + \lambda \cdot \frac{CDs_{L(t)}}{D + \lambda D} PLL1,0(L(t))=Pdu+1,0(L(t))+λD+λDCDsL(t)
  • 条件概率分布 P ( L L 1 ) ( L ( t i ) ∣ L ( t j ) ) P(LL1)(L(t_i)|L(t_j)) P(LL1)(L(ti)L(tj)) 的更新:
    P L L 2 ( L ( t i ) ∣ L ( t j ) ) = P L L 1 ( L ( t i ) ∣ L ( t j ) ) + λ ⋅ C D s L ( t i ) , L ( t j ) D + λ D P_{LL2}(L(t_i)|L(t_j)) = P_{LL1}(L(t_i)|L(t_j)) + \lambda \cdot \frac{CDs_{L(t_i), L(t_j)}}{D + \lambda D} PLL2(L(ti)L(tj))=PLL1(L(ti)L(tj))+λD+λDCDsL(ti),L(tj)

这里, λ \lambda λ是一个控制参数,用于调整过去知识对当前任务影响的强度。 C D s L ( t ) CDs_{L(t)} CDsL(t) C D s L ( t i ) , L ( t j ) CDs_{L(ti), L(tj)} CDsL(ti),L(tj)分别表示过去任务中目标 t t t被标记为 L ( t ) L(t) L(t)和目标 t i t_i ti t j t_j tj 同时被标记为 L ( t i ) L(t_i) L(ti) L ( t j ) L(t_j) L(tj) 的领域数量。 D D D是过去任务的总数。

五、实验环节

论文使用两个数据集进行实验:一组包含8个注释的评论数据集,用于计算精确度、召回率和F1分数;另一组包含100个不同产品或领域的未标记评论数据集,作为过去领域数据在终身机器学习中的处理。实验结果表明,Lifelong-RL方法显著优于基线方法。

六、进一步探索点:

论文指出,虽然实验结果很有前景,但还有进一步的探索空间,例如如何更有效地利用知识库中的信息,以及如何提高算法在不同领域中的泛化能力。

七、总结

论文提出了一种新的算法Lifelong-RL,用于在意见挖掘中区分实体和方面。通过结合松弛标签算法和终身机器学习,该方法在实验中表现出色,显著提高了目标分类的准确性。这项工作为意见挖掘领域提供了一种新的思路和方法。

你可能感兴趣的:(阅读笔记,持续学习,学习,论文阅读,笔记)