最近在自然语言处理中的模型解释性的研究广泛使用特征评分方法来识别输入的哪些部分对模型来制作预测(即解释或理由)。然而,以前的研究表明,在各种文本分类任务中没有明确的最佳评分方法,而从业者通常必须制定关于理由的长度和类型的其他临时选择(例如短或长,连续或不连续) 。灵感来自于此,我们提出了一种简单而有效且灵活的方法,允许为每个数据实例最佳选择:(1)特征评分方法; (2)长度; (3)理由的类型。我们的方法是通过输入擦除方法的引发方法的启发,这假设预测的最忠实的理由应该是模型的输出分布在使用完整文本分别作为输入中的基本原理和文本之间的最高差异。四个标准文本分类数据集的评估表明,与使用固定的特征评分方法,理由长度和类型相比,我们的提出方法提供了更忠诚,全面,高度的解释。更重要的是,我们证明了一种从业者不需要使用我们的方法提取忠实的理由来提取任何临时选择。
translated by 谷歌翻译
变形金刚在NLP中广泛使用,它们始终如一地实现最先进的性能。这是由于他们基于注意力的架构,这使他们能够对单词之间的丰富语言关系进行建模。但是,变压器很难解释。能够为其决策提供推理是人类生命受影响的领域(例如仇恨言论检测和生物医学)的模型的重要特性。随着变压器在这些领域中发现广泛使用,因此需要为其量身定制的可解释性技术。在这项工作中研究了基于注意力的可解释性技术对文本分类中的有效性。尽管担心文献中的基于注意力的解释,但我们表明,通过适当的设置,可以将注意力用于此类任务,结果与最先进的技术相当,同时也更快,更友好。我们通过采用新功能重要性指标的一系列实验来验证我们的主张。
translated by 谷歌翻译
特征归因A.K.A.将重要性分配给特征的输入突出性方法丰富,但可能对同一输入上的相同模型产生令人惊讶的不同结果。虽然预期差异是假设存在的不同意义的定义,但大多数方法要求提供与模型预测最相关的特征的忠实归属和点。对忠诚评估的现有工作并不是决定性的,并且没有提供明确的答案,以及如何比较不同的方法。专注于文本分类和模型调试方案,我们的主要贡献是忠实评估的协议,该协议是利用部分合成数据来获得特征重要性排名的基础事实。在该协议之后,我们对四个标准Parience方法进行了深入的分析,在一系列数据集和LSTM模型的数据集和快捷方式上进行了深入的分析,并证明了一些最受欢迎的方法配置即使对于最简单的快捷方式,也可以提供较差的结果。我们建议使用每个新任务和模型组合的协议,以找到识别快捷方式的最佳方法。
translated by 谷歌翻译
通过突出显示最大影响输出的文本输入,提取理由对给定任务实例的预测解释了语言模型(LM)预测。理想情况下,理由提取应该是忠诚的(反映LM的行为),合理的(对人类来说),数据效率和快速,而不牺牲LM的任务表现。先前的基本原理提取工程由专门的方法提供解决这些desiderata的各个子集 - 但从来没有五个。狭隘地关注某些Desiderata通常会以忽略的牺牲品为代价,因此现有的理由提取器在现实世界应用中往往是不切实际的。为了解决这一挑战,我们提出了Unirex,统一和高度灵活的理由提取学习框架,允许用户容易地占所有五个因素。 UNIREX使理论提取器培训过程的端到端定制,支持任意:(1)启发式/学习的理由提取者,(2)忠诚和/或合理性目标的组合,以及(3)金理由监管的数额。在三个文本分类数据集中,我们最好的UNIrex配置实现了与强基线相比的五个desiderata的较高余额。此外,Unirex培训的理由提取器甚至可以推广到看不见的数据集和任务。
translated by 谷歌翻译
从理由学习,寻求使用人为理由(即输入令牌的子集)增强模型培训(即输入令牌的子集)。在直观的同时,这个想法在实践中被证明是难以捉摸的。我们通过经验分析进行了两次关于人类理由的观察:1)最大化预测的理由精度不一定是提高模型性能的最佳目标; 2)人类的理由在提供模型中以利用预测的模型提供足够的信息,并且我们可以使用这种方差来评估数据集的潜在改善,从理论中学习。建立这些见解,我们提出了损失职能和学习策略,并在具有人类理由的三个数据集中评估其有效性。我们的结果表明,在标签性能和理由性能方面对基线的一致性改进,包括对Mullirc的3%的准确性改进。我们的工作突出了了解人类解释属性并在模型培训中利用它们的重要性。
translated by 谷歌翻译
Deep Learning and Machine Learning based models have become extremely popular in text processing and information retrieval. However, the non-linear structures present inside the networks make these models largely inscrutable. A significant body of research has focused on increasing the transparency of these models. This article provides a broad overview of research on the explainability and interpretability of natural language processing and information retrieval methods. More specifically, we survey approaches that have been applied to explain word embeddings, sequence modeling, attention modules, transformers, BERT, and document ranking. The concluding section suggests some possible directions for future research on this topic.
translated by 谷歌翻译
最先进的文本分类器的大尺寸和复杂的决策机制使人类难以理解他们的预测,导致用户缺乏信任。这些问题导致采用Shail和集成梯度等方法来解释分类决策,通过为输入令牌分配重要性分数。然而,使用不同的随机化测试之前的工作表明,通过这些方法产生的解释可能不具有稳健性。例如,对测试集的相同预测的模型可能仍然导致不同的特征重要性排名。为了解决基于令牌的可解释性缺乏稳健性,我们探讨了句子等更高语义层面的解释。我们使用计算指标和人类主题研究来比较基于令牌的句子的解释的质量。我们的实验表明,更高级别的特征属性提供了几个优点:1)由于随机化测试测量,2)当使用近似的基于方法等诸如Shav等的方法来说,它们更加强大,并且3)它们更容易理解在语言相干性在更高的粒度水平上存在的情况下的人类。基于这些调查结果,我们表明,令牌的可解释性,同时是鉴于ML模型的输入接口的方便的首选,不是所有情况中最有效的选择。
translated by 谷歌翻译
我们提出了一种可解释的关系提取方法,通过共同训练这两个目标来减轻概括和解释性之间的张力。我们的方法使用多任务学习体系结构,该体系结构共同训练分类器以进行关系提取,并在解释关系分类器的决策的关系中标记单词的序列模型。我们还将模型输出转换为规则,以将全局解释带入这种方法。使用混合策略对此序列模型进行训练:有监督,当可获得预先存在的模式的监督时,另外还要半监督。在后一种情况下,我们将序列模型的标签视为潜在变量,并学习最大化关系分类器性能的最佳分配。我们评估了两个数据集中的提议方法,并表明序列模型提供了标签,可作为关系分类器决策的准确解释,并且重要的是,联合培训通常可以改善关系分类器的性能。我们还评估了生成的规则的性能,并表明新规则是手动规则的重要附加功能,并使基于规则的系统更接近神经模型。
translated by 谷歌翻译
数十种归因方法背后的一个原理是在输入功能(此处,令牌)作为其归属中删除之前和之后的预测差异。流行的输入边缘化方法(IM)方法(Kim等,2020)使用BERT代替令牌,从而产生更合理的反事实。而Kim等人。 (2020)报道IM是有效的,我们发现这个结论并不令人信服,因为论文中使用的Deletionbert指标对IM有偏见。重要的是,这种偏见存在于基于缺失的指标中,包括插入,充分性和全面性。此外,我们使用6个指标和3个数据集的严格评估没有发现IM比剩余的(LOO)基线更好的证据。我们发现IM不比LOO更好的两个原因:(1)从输入中删除单个单词仅略微降低了分类器的精度; (2)一个高度可预测的词总是给出接近零的归因,无论其对分类器的真正重要性。相比之下,通过BERT使石灰样品更加自然可在几种咆哮指标下始终提高酸橙精度。
translated by 谷歌翻译
最先进的实体匹配(EM)方法很难解释,并且为EM带来可解释的AI具有重要的价值。不幸的是,大多数流行的解释性方法无法开箱即用,需要适应。在本文中,我们确定了将本地事后特征归因方法应用于实体匹配的三个挑战:跨记录的交互作用,不匹配的解释和灵敏度变化。我们提出了新颖的模型 - 静态和模式 - 富含模型的方法柠檬柠檬,该方法通过(i)产生双重解释来避免交叉记录的互动效果来应对所有三个挑战,(ii)介绍了归因潜力的新颖概念,以解释两个记录如何能够拥有如何具有匹配,(iii)自动选择解释粒度以匹配匹配器和记录对的灵敏度。公共数据集上的实验表明,所提出的方法更忠实于匹配器,并且在帮助用户了解匹配器的决策边界的工作中比以前的工作更具忠诚度。此外,用户研究表明,与标准的解释相比石灰的适应。
translated by 谷歌翻译
虽然许多方法旨在通过突出突出特征来解释预测,但是这些解释服务的目标以及如何评估它们通常不合适。在这项工作中,我们介绍了一个框架,通过在训练教师模型的学生模型上授予学生模型的准确性增益来量化解释的价值。至关重要的是,培训期间学生可以使用解释,但在测试时间不可用。与先前的建议相比,我们的方法不太易于绘制,实现原则,自动,模型 - 无话会的归属。使用我们的框架,我们比较了许多归属方法,用于文本分类和问题应答,并观察不同学生模型架构和学习策略之间的定量差异(在中度到高度)。
translated by 谷歌翻译
可解释的机器学习提供了有关哪些因素推动了黑盒系统的一定预测以及是否信任高风险决策或大规模部署的洞察力。现有方法主要集中于选择解释性输入功能,这些功能遵循本地添加剂或实例方法。加性模型使用启发式采样扰动来依次学习实例特定解释器。因此,该过程效率低下,并且容易受到条件较差的样品的影响。同时,实例技术直接学习本地采样分布,并可以从其他输入中利用全球信息。但是,由于严格依赖预定义的功能,他们只能解释单一级预测并在不同设置上遇到不一致的情况。这项工作利用了这两种方法的优势,并提出了一个全球框架,用于同时学习多个目标类别的本地解释。我们还提出了一种自适应推理策略,以确定特定实例的最佳功能数量。我们的模型解释器极大地超过了忠诚的添加和实例的对应物,而在各种数据集和Black-box模型体系结构上获得了高水平的简洁性。
translated by 谷歌翻译
Automated Machine Learning-based systems' integration into a wide range of tasks has expanded as a result of their performance and speed. Although there are numerous advantages to employing ML-based systems, if they are not interpretable, they should not be used in critical, high-risk applications where human lives are at risk. To address this issue, researchers and businesses have been focusing on finding ways to improve the interpretability of complex ML systems, and several such methods have been developed. Indeed, there are so many developed techniques that it is difficult for practitioners to choose the best among them for their applications, even when using evaluation metrics. As a result, the demand for a selection tool, a meta-explanation technique based on a high-quality evaluation metric, is apparent. In this paper, we present a local meta-explanation technique which builds on top of the truthfulness metric, which is a faithfulness-based metric. We demonstrate the effectiveness of both the technique and the metric by concretely defining all the concepts and through experimentation.
translated by 谷歌翻译
众所周知,端到端的神经NLP体系结构很难理解,这引起了近年来为解释性建模的许多努力。模型解释的基本原则是忠诚,即,解释应准确地代表模型预测背后的推理过程。这项调查首先讨论了忠诚的定义和评估及其对解释性的意义。然后,我们通过将方法分为五类来介绍忠实解释的最新进展:相似性方法,模型内部结构的分析,基于反向传播的方法,反事实干预和自我解释模型。每个类别将通过其代表性研究,优势和缺点来说明。最后,我们从它们的共同美德和局限性方面讨论了上述所有方法,并反思未来的工作方向忠实的解释性。对于有兴趣研究可解释性的研究人员,这项调查将为该领域提供可访问且全面的概述,为进一步探索提供基础。对于希望更好地了解自己的模型的用户,该调查将是一项介绍性手册,帮助选择最合适的解释方法。
translated by 谷歌翻译
State-of-the-art machine translation evaluation metrics are based on black-box language models. Hence, recent works consider their explainability with the goals of better understandability for humans and better metric analysis, including failure cases. In contrast, we explicitly leverage explanations to boost the metrics' performance. In particular, we perceive explanations as word-level scores, which we convert, via power means, into sentence-level scores. We combine this sentence-level score with the original metric to obtain a better metric. Our extensive evaluation and analysis across 5 datasets, 5 metrics and 4 explainability techniques shows that some configurations reliably improve the original metrics' correlation with human judgment. On two held datasets for testing, we obtain improvements in 15/18 resp. 4/4 cases. The gains in Pearson correlation are up to 0.032 resp. 0.055. We make our code available.
translated by 谷歌翻译
缺失或缺乏输入功能,是许多模型调试工具的基础概念。但是,在计算机视觉中,不能简单地从图像中删除像素。因此,一种倾向于诉诸启发式方法,例如涂黑像素,这反过来又可能引入调试过程中的偏见。我们研究了这样的偏见,特别是展示了基于变压器的架构如何使遗失性更自然地实施,哪些侧架来侧翼这些问题并提高了实践中模型调试的可靠性。我们的代码可从https://github.com/madrylab/missingness获得
translated by 谷歌翻译
State-of-the-art text simplification (TS) systems adopt end-to-end neural network models to directly generate the simplified version of the input text, and usually function as a blackbox. Moreover, TS is usually treated as an all-purpose generic task under the assumption of homogeneity, where the same simplification is suitable for all. In recent years, however, there has been increasing recognition of the need to adapt the simplification techniques to the specific needs of different target groups. In this work, we aim to advance current research on explainable and controllable TS in two ways: First, building on recently proposed work to increase the transparency of TS systems, we use a large set of (psycho-)linguistic features in combination with pre-trained language models to improve explainable complexity prediction. Second, based on the results of this preliminary task, we extend a state-of-the-art Seq2Seq TS model, ACCESS, to enable explicit control of ten attributes. The results of experiments show (1) that our approach improves the performance of state-of-the-art models for predicting explainable complexity and (2) that explicitly conditioning the Seq2Seq model on ten attributes leads to a significant improvement in performance in both within-domain and out-of-domain settings.
translated by 谷歌翻译
Explanations are crucial parts of deep neural network (DNN) classifiers. In high stakes applications, faithful and robust explanations are important to understand and gain trust in DNN classifiers. However, recent work has shown that state-of-the-art attribution methods in text classifiers are susceptible to imperceptible adversarial perturbations that alter explanations significantly while maintaining the correct prediction outcome. If undetected, this can critically mislead the users of DNNs. Thus, it is crucial to understand the influence of such adversarial perturbations on the networks' explanations and their perceptibility. In this work, we establish a novel definition of attribution robustness (AR) in text classification, based on Lipschitz continuity. Crucially, it reflects both attribution change induced by adversarial input alterations and perceptibility of such alterations. Moreover, we introduce a wide set of text similarity measures to effectively capture locality between two text samples and imperceptibility of adversarial perturbations in text. We then propose our novel TransformerExplanationAttack (TEA), a strong adversary that provides a tight estimation for attribution robustness in text classification. TEA uses state-of-the-art language models to extract word substitutions that result in fluent, contextual adversarial samples. Finally, with experiments on several text classification architectures, we show that TEA consistently outperforms current state-of-the-art AR estimators, yielding perturbations that alter explanations to a greater extent while being more fluent and less perceptible.
translated by 谷歌翻译
命名实体识别(ner)旨在标识在非结构化文本中的命名实体的提到,并将它们分类为预定义的命名实体类。尽管基于深度学习的预先训练的语言模型实现了良好的预测性能,但许多域特定的NERTASK仍然需要足够量的标记数据。主动学习(AL)是标签采集问题的一般框架,已用于NER任务,以最大限度地降低注释成本而不会牺牲模型性能。然而,令牌的严重不平衡的课程分布引入了设计有效的NER Querying方法的挑战。我们提出了al句子查询评估函数,这些函数更加关注可能的积极令牌,并评估基于句子和基于令牌的成本评估策略的这些提出的功能。我们还提出了更好的数据驱动的归一化方法来惩罚太长或太短的句子。我们在来自不同域的三个数据集上的实验表明,所提出的方法减少了带有常规方法的更好或可比预测性能的增注令牌的数量。
translated by 谷歌翻译
尽管变压器语言模型(LMS)是信息提取的最新技术,但长文本引入了需要次优的预处理步骤或替代模型体系结构的计算挑战。稀疏注意的LMS可以代表更长的序列,克服性能障碍。但是,目前尚不清楚如何解释这些模型的预测,因为并非所有令牌都在自我发项层中相互参加,而在运行时,长序列对可解释性算法提出了计算挑战,而当运行时取决于文档长度。这些挑战在文档可能很长的医学环境中是严重的,机器学习(ML)模型必须是审核和值得信赖的。我们介绍了一种新颖的蒙版抽样程序(MSP),以识别有助于预测的文本块,将MSP应用于预测医学文本诊断的背景下,并通过两位临床医生的盲目审查来验证我们的方法。我们的方法比以前的最先进的临床信息块高约1.7倍,速度更快100倍,并且可用于生成重要的短语对。 MSP特别适合长LMS,但可以应用于任何文本分类器。我们提供了MSP的一般实施。
translated by 谷歌翻译