题名面向自然语言处理深度学习模型的归因解释研究
作者鞠一鸣
答辩日期2023-05-17
文献子类博士
关键词自然语言处理 可解释人工智能 深度学习 归因解释 事后解释
英文摘要

       深度学习技术在自然语言处理领域已取得了巨大成功,在一系列自然语言处理任务上达到了最佳性能。然而,自然语言处理深度学习模型一个被长期诟病的问题就是其往往运行在所谓黑盒的模式下,即模型的决策过程对于人类来说是不透明的。因此,研究者们对如何提高自然语言处理深度学习模型的可解释性展开了研究。其根据可解释性获得来源的不同可以分为两个主要方面:内在可解释性和事后可解释性。前者指模型本身可以被人类理解的程度,后者指解释训练好的模型的决策依据。其中,事后归因解释通过衡量目标特征对模型决策的影响解释自然语言处理深度学习模型,有着明确的数学解释形式和良好的可读性, 在近年来得到了广泛的关注与研究。 
       但作为一个新兴的研究领域,面向自然语言处理深度学习模型的归因解释研究还面临着诸多问题与挑战:(1) 随着自然语言处理深度学习模型能力的不断增强,其能处理的任务也变得越来越复杂,现有的归因解释构建方法难以完整地反映出模型的决策过程。如何提高归因解释的完整性是归因解释构建研究中亟待解决的问题。(2) 现有自动评价归因解释忠实性的方法往往基于特定假设,存在着天然的缺陷与局限性,这可能会导致不准确的评价与不公平的比较。目前对这些评价方法存在的缺陷与其局限性还未得到充分的关注与研究。(3) 现有归因解释应用的研究主要聚焦于提升自然语言处理深度学习模型的性能和泛化能力, 且多在文本分类任务上进行探索。如何丰富应用场景、提升应用效果是归因解释应用研究所面临的主要挑战。 
       针对以上问题,本文从归因解释的构建、归因解释的评价和归因解释的应用这三个方面对归因解释展开研究。本文的主要研究内容和创新点如下:
       1. 基于文本单元交互的层级归因解释构建方法针对提高归因解释的完整性,本文提出了一种基于文本单元交互的层级归因解释构建方法。该方法可以有效捕捉输入文本中的远距离交互关系,并可以将已有非层级归因解释转换为其对应的层级形式,有效地利用了已有的非层级归因解释。具体地,不同于已有方法,该方法不再将归因单元限制为一段连续的文本,可以直接捕捉输入不同位置文本之间的交互关系。此外,该方法基于非层级归因解释计算文本单元的交互强度并构建输入文本的层级结构,可以将已有非层级归因解释转换为其对应的层级形式,有效地提高了已有非层级归因解释的完整性。自动评价和人工评价的实验结果证明了该层级归因解释构建方法的有效性。 
       2. 面向忠实性的归因解释评价方法缺陷研究忠实性指归因解释是否忠实地反映了模型的决策依据,是评价归因解释最为重要的评价标准。本文面向归因解释忠实性的评价,对现有自动评价方法中存在的缺陷展开研究。本研究首先系统性地将目前研究领域内广泛使用的自动评价方法分为三类,然后分别指出了隐藏在不同类别评价方法背后的逻辑陷阱, 最后通过在真实自然语言处理任务上设计实验证明了这些逻辑陷阱的存在。本研究系统地揭露了被广泛使用的归因解释评价方法中存在的缺陷,并建议减少在不可靠评价体系下提高性能的努力,转而关注如何减小所提逻辑陷阱的负面影响和从可用性的角度评价归因解释。 
       3. 基于归因解释的机器阅读理解模型增强方法现有的利用归因解释提升自然语言处理深度学习模型性能的方法往往依赖人工标注与远程监督,需要很高的成本和计算复杂度。此外,现有方法多聚焦于相对简单的文本分类任务且往往只能作用于弱模型和少样本的场景,难以应用于最先进的模型和系统。针对以上两个问题,本文提出了一种基于归因解释的机器阅读理解模型增强方法。该方法通过惩罚归因解释中不合理的部分改进模型, 无需改变模型结构且无需引入额外标注和先验知识,在低成本的情况下可以同时提升基线模型和最先进模型的性能。此外,作为模型无关方法,该方法可以作用于不同的模型结构上,具有广泛的应用场景。在三个具有代表性的多项选择机器阅读理解数据集上的实验结果表明,该方法能有效地利用归因解释提升模型的性能。 
 

语种中文
学科主题计算机科学技术
页码100
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/51879]  
专题模式识别国家重点实验室_自然语言处理
推荐引用方式
GB/T 7714
鞠一鸣. 面向自然语言处理深度学习模型的归因解释研究[D]. 2023.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace