知识图谱能否帮助使深度学习系统更具可解释性和可解释性 Semantics of the Black-Box: Can knowledge graphs help make deep learning

摘要

近期在深度学习(DL)中进行的一系列创新已显示出对个人和社会产生积极和消极影响的巨大潜力。利用海量计算能力和海量数据集的DL模型在计算机视觉,自然语言处理,信号处理和人机交互等技术领域中日益困难,定义明确的研究任务上,已大大优于先前的历史基准。但是,DL模型的“黑匣子”性质及其对依赖大量数据压缩成标签和密集表示形式的过度依赖给系统的可解释性和可解释性带来了挑战。此外,尚未证明DL有效地利用对人类理解至关重要的相关领域知识和经验的能力。早期的以数据为中心的方法缺少这一方面,因此需要注入知识的学习方法和其他结合计算知识的策略。本文演示了如何使用知识注入式学习将知识作为知识图提供给DL方法,该方法是一种策略。然后,我们将讨论这如何在当前方法的可解释性和可解释性上产生根本性差异,并以医疗和教育应用中的自然语言处理为例进行说明。

用“知识注入”定义可解释性

对模型行为进行解释是受利益相关者的约束。必须注入一组特权知识(例如,领域专业知识,针对特定情况的建议)以理解模型结果并解释其功能。在DL模型中注入知识的方法是通过一组神经符号程序进行的,这些程序用来自多个KG或本体的概念和关系丰富了数据集,从而帮助最终用户进行决策。例如:生物分类知识(例如哥伦比亚自杀严重性风险量表(C-SSRS)),关系知识(例如ConceptNet),隐喻知识和行为知识(例如LIWC)是理解在线对话所需的外部情境信息的必要形式,主要是在问题是资源不足(没有足够的基准数据集和未标记的语料库进行迁移学习)的情况下。

而且,在模型学习过程中,使用信息理论损失函数(例如,KL散度)的知识注入可以通过从KG进行的弱监督来检查代表水平上的概念漂移。或者,可以通过各种数学运算(例如,逐点乘法,级联),将来自KG的抽象信息增加到DL模型中的分层表示中,来补充学习期间的信息丢失。将相关信息从KG融合到DL中的隐藏表示形式,可以对其功能进行定量和定性评估,我们将其定义为注入知识的可解释性。进行知识注入以识别模型行为的一种可能方法是通过具有通过功能连接到KG的DL层的体系结构。这样的功能可以是“知识丢失功能”,它可以计算每个时期每个层的信息丢失。

或者,一个函数可以是“知识传播函数”,该函数计算损失信息并通过数学运算传递丢失的信息。信息损失的计算是通过嵌入隐藏层来跟踪KG并打印通过模式识别来学习模型正在学习的概念和关系来执行的。另一方面,拥有KG的真实子图将有助于计算隐藏层所学概念与子图中实际概念之间的距离(所有这些概念均在嵌入级别完成),可用于调整隐藏的嵌入,因此可以更快地与模型解释融合。通过知识注入实现可解释性和可解释性时,这两个术语可以区分开,因为“可解释性”将迎合做出预测的原因。相反,可解释性将展现理解系统学习的模式或获得的知识的能力。任何可解释的系统都必须是可解释的,但相反的做法无效。可解释性可以通过其可解释性和完整性来评估。

“根据经验,一个可解释的系统将由集体详尽的可解释子系统组成,并在其中进行编排。 通常,解释是用自然语言解释该决定,而解释可以是统计上的或概念上的(使用通用或特定领域的KG),涉及其内部功能。”

分布式语义学的局限性

DL语言模型在NLP中的最新成功归因于对大量未标记数据(例如BERT,RoBERTa和T5)进行自我监督的目标。这些模型学习有关文本和短语之间关系的分布语义。这也是一个活跃的研究领域,以探讨这些模型是否学习语言知识,例如语音的一部分和依赖树。许多探索性实验对不同层和内部组件(例如神经网络的关注头)发现的语言模式提供了见识。但是,这些模型学到了多少语义知识,这仍然是一个悬而未决的问题,特别是当语义未在数据中以统计上显着的模式表示时。当这些模型无法学习有关概念的事实时,这变得显而易见。
此外,以有限的标记数据微调预训练模型的趋势正在增长。当(a)标记数据集的分布类似于用于预训练的未标记数据时,(b)任务相对简单,如自然语言蕴含和跨度提取性问题解答,这些都取得了成功。但是,现实世界中的场景通常更为复杂,这带来了以下挑战:
(a)针对带有有限标签数据的特定领域任务微调此类模型可能不足以学习领域知识,因为这些数据可能无法捕获领域知识。
(b)同样,对无标签数据进行自我监督的培训目标并非试图学习实际采用的领域知识。
(c)产生的解释和解释将更具挑战性,因为内部层或分布语义机制将不代表特定的领域知识。

知识图注入带来更好的解释性

前面对分布语义的关注要求在深度神经模型中注入领域知识的特定需求,以便获得更好的预测性能以及生成解释和解释的描述性能。
DL模型中的注入域知识可分为浅注入,半深注入和深注入[2]。在浅层注入中,外部信息和知识注入方法都是浅层的,即Word2Vec或GloVE嵌入是使用领域知识作为特征来重构的(参见图1 )。另一方面,知识的深层渗透是将深层神经网络学习的潜在表示与利用实体之间的语义关系的KG耦合的范例。
最近,有大量的研究尝试使用不同的技术将知识图或主要规则注入到满足不同需求的深层神经模型中。主要可以将它们分类如下:
(a)将相关外部知识作为查询中的附加上下文或作为基于外部知识的特征进行融合;
(b)将KG嵌入到神经模型的隐藏层中以进行可解释的决策
(c )通过级联或合并或非线性转换从KG的相关子图或路径中引入上下文表示
(d)利用KG来改变DL模型的注意力机制和预训练,以及
(e)开发使用特定领域的方法KG使用整数线性规划进行非平凡的自然语言推理。
知识图谱能否帮助使深度学习系统更具可解释性和可解释性 Semantics of the Black-Box: Can knowledge graphs help make deep learning_第1张图片⬆️浅层融合的的图解,其中将来自药物滥用本体论(DAO)的概念附加到现有词汇表中以评估COVID-19期间的负面媒体暴露,然后重构Google BERT模型。 当难以注释数以百万计的新闻文章和购买用于抑郁症和药物滥用的标记数据集时,这种带有知识注入的弱监督方法是实用的

卫生保健领域使用案例的解释和解释

考虑摘要的应用程序领域,它是自然语言理解和DL的交集。 大量的研究调查了总结新闻文章,会议日志以及经常被模板化的财务/法律合同。 另一方面,在临床医生试图反思患者的反应时,患者与临床医生的对话是开放式的。 因此,面试形成了一种固有的结构,这给自然语言理解带来了挑战:(1)回指式-句子是有目的的-完全释义以引起代理商(或用户)的有意义的回应; (2)临床对话包含对医疗状况的隐含参考,在临床相关概念中发展为稀疏性。 这样的问题场景需要一个模型来捕获对话的上下文(请参见图2)。
知识图谱能否帮助使深度学习系统更具可解释性和可解释性 Semantics of the Black-Box: Can knowledge graphs help make deep learning_第2张图片
知识注入摘要概述(KiAS)概述,用于采访患者对Ellie(虚拟访问者)提出的问题的回答。 使用PHQ-9词典识别与心理健康相关的短语。 话语之间的上下文相似性是通过改进的嵌入模型来计算的。 结果摘要包含相关问题和有意义的回答。 KiAS策略通过“ is-a”关系识别并记录在PHQ-9词典中,从而识别焦虑症[SNOMEDCT ID:197480006]和PTSD [SNOMEDCT ID:47505003]之间的语义相似性。 它将焦虑和PTSD的反应互换
在解决回指问题的同时,对临床对话的总结需要有意义的响应与与临床相关的问题相关联。 经过大规模新闻报道语料库训练的最新语言模型(例如BERT)无法捕获问题的背景,也无法从临床医生的角度评估做出回应的重要性。 此外,类似BERT的模型的微调也无济于事,因为更新模型参数需要由可以抽象地描述具有分层知识的临床对话的结构来控制(请参见图3)。 因此,最近,基于整数线性规划(ILP)的摘要方法已从NLP社区(https://www.jmir.org/preprint/20865)获得了足够的关注。 优化框架是可解释的,因为知识被纳入约束。 结果是可以解释的,因为优化标准反映了最终用户的需求。
在一项总结患者和临床医生之间记录的12分钟对话记录的实验中(https://bit.ly/patid313),具有PHQ-9知识的ILP可以比基于简单ILP的抽象方法更好地对问题做出适当的回答 摘要和预训练的BERT。 KiAS生成摘要(平均7个句子),以捕获信息性问题和长时间(平均58个句子),模棱两可和稀疏的临床诊断访谈中交换的信息

你可能感兴趣的:(大数据,自然语言处理,深度学习,数据挖掘,神经网络)