Entity matching in Customer 360 is the task of determining if multiple records represent the same real world entity. Entities are typically people, organizations, locations, and events represented as attributed nodes in a graph, though they can also be represented as records in relational data. While probabilistic matching engines and artificial neural network models exist for this task, explaining entity matching has received less attention. In this demo, we present our Explainable Entity Matching (xEM) system and discuss the different AI/ML considerations that went into its implementation.
translated by 谷歌翻译
在线零售平台,积极检测交易风险至关重要,以提高客户体验,并尽量减少财务损失。在这项工作中,我们提出了一种可解释的欺诈行为预测框架,主要由探测器和解释器组成。 Xfraud探测器可以有效和有效地预测进货交易的合法性。具体地,它利用异构图形神经网络来从事务日志中的信息的非渗透键入实体中学习表达式表示。 Xfraud中的解释器可以从图表中生成有意义和人性化的解释,以便于业务部门中的进一步进程。在我们对具有高达11亿节点和37亿边缘的实际交易网络上的Xfraud实验中,XFraud能够在许多评估度量中倾销各种基线模型,同时在分布式设置中剩余可扩展。此外,我们表明,XFraud解释者可以通过定量和定性评估来显着帮助业务分析来产生合理的解释。
translated by 谷歌翻译
作为当今最受欢迎的机器学习模型之一,Graph神经网络(GNN)最近引起了激烈的兴趣,其解释性也引起了人们的兴趣。用户对更好地了解GNN模型及其结果越来越感兴趣。不幸的是,当今的GNN评估框架通常依赖于合成数据集,从而得出有限范围的结论,因为问题实例缺乏复杂性。由于GNN模型被部署到更关键的任务应用程序中,因此我们迫切需要使用GNN解释性方法的共同评估协议。在本文中,据我们最大的知识,我们提出了针对GNN解释性的第一个系统评估框架,考虑了三种不同的“用户需求”的解释性:解释焦点,掩盖性质和掩蔽转换。我们提出了一个独特的指标,该指标将忠诚度措施结合在一起,并根据其足够或必要的质量对解释进行分类。我们将自己范围用于节点分类任务,并比较GNN的输入级解释性领域中最具代表性的技术。对于广泛使用的合成基准测试,令人惊讶的是,诸如个性化Pagerank之类的浅水技术在最小计算时间内具有最佳性能。但是,当图形结构更加复杂并且节点具有有意义的特征时,根据我们的评估标准,基于梯度的方法,尤其是显着性。但是,没有人在所有评估维度上占主导地位,而且总会有一个权衡。我们在eBay图上的案例研究中进一步应用了我们的评估协议,以反映生产环境。
translated by 谷歌翻译
人工智能(AI)使机器能够从人类经验中学习,适应新的输入,并执行人类的人类任务。 AI正在迅速发展,从过程自动化到认知增强任务和智能流程/数据分析的方式转换业务方式。然而,人类用户的主要挑战是理解和适当地信任AI算法和方法的结果。在本文中,为了解决这一挑战,我们研究并分析了最近在解释的人工智能(XAI)方法和工具中所做的最新工作。我们介绍了一种新颖的XAI进程,便于生产可解释的模型,同时保持高水平的学习性能。我们提出了一种基于互动的证据方法,以帮助人类用户理解和信任启用AI的算法创建的结果和输出。我们在银行域中采用典型方案进行分析客户交易。我们开发数字仪表板以促进与算法的互动结果,并讨论如何提出的XAI方法如何显着提高数据科学家对理解启用AI的算法结果的置信度。
translated by 谷歌翻译
最先进的实体匹配(EM)方法很难解释,并且为EM带来可解释的AI具有重要的价值。不幸的是,大多数流行的解释性方法无法开箱即用,需要适应。在本文中,我们确定了将本地事后特征归因方法应用于实体匹配的三个挑战:跨记录的交互作用,不匹配的解释和灵敏度变化。我们提出了新颖的模型 - 静态和模式 - 富含模型的方法柠檬柠檬,该方法通过(i)产生双重解释来避免交叉记录的互动效果来应对所有三个挑战,(ii)介绍了归因潜力的新颖概念,以解释两个记录如何能够拥有如何具有匹配,(iii)自动选择解释粒度以匹配匹配器和记录对的灵敏度。公共数据集上的实验表明,所提出的方法更忠实于匹配器,并且在帮助用户了解匹配器的决策边界的工作中比以前的工作更具忠诚度。此外,用户研究表明,与标准的解释相比石灰的适应。
translated by 谷歌翻译
Graph Neural Networks (GNNs) are a powerful tool for machine learning on graphs. GNNs combine node feature information with the graph structure by recursively passing neural messages along edges of the input graph. However, incorporating both graph structure and feature information leads to complex models and explaining predictions made by GNNs remains unsolved. Here we propose GNNEXPLAINER, the first general, model-agnostic approach for providing interpretable explanations for predictions of any GNN-based model on any graph-based machine learning task. Given an instance, GNNEXPLAINER identifies a compact subgraph structure and a small subset of node features that have a crucial role in GNN's prediction. Further, GNNEXPLAINER can generate consistent and concise explanations for an entire class of instances. We formulate GNNEXPLAINER as an optimization task that maximizes the mutual information between a GNN's prediction and distribution of possible subgraph structures. Experiments on synthetic and real-world graphs show that our approach can identify important graph structures as well as node features, and outperforms alternative baseline approaches by up to 43.0% in explanation accuracy. GNNEXPLAINER provides a variety of benefits, from the ability to visualize semantically relevant structures to interpretability, to giving insights into errors of faulty GNNs.
translated by 谷歌翻译
由于事后解释越来越多地用于了解图神经网络(GNN)的行为,因此评估GNN解释的质量和可靠性至关重要。但是,评估GNN解释的质量是具有挑战性的,因为现有的图形数据集对给定任务没有或不可靠的基础真相解释。在这里,我们介绍了一个合成图数据生成器ShapeGgen,该生成可以生成各种基准数据集(例如,不同的图形大小,度分布,同粒细胞与异性图)以及伴随着地面真相解释。此外,生成各种合成数据集和相应的基础真相解释的灵活性使我们能够模仿各种现实世界应用程序生成的数据。我们将ShapeGgen和几个现实图形数据集包括在开源图形图库GraphXai中。除了带有基础真相说明的合成和现实图形数据集外,GraphXAI还提供数据加载程序,数据处理功能,可视化器,GNN模型实现和评估指标,以基准基准GNN解释性方法的性能。
translated by 谷歌翻译
图形神经网络(GNN)已证明图形数据的预测性能显着提高。同时,这些模型的预测通常很难解释。在这方面,已经做出了许多努力来从gnnexplainer,XGNN和PGEXPlainer等角度解释这些模型的预测机制。尽管这样的作品呈现出系统的框架来解释GNN,但对于可解释的GNN的整体评论是不可用的。在这项调查中,我们介绍了针对GNN开发的解释性技术的全面综述。我们专注于可解释的图形神经网络,并根据可解释方法的使用对它们进行分类。我们进一步为GNNS解释提供了共同的性能指标,并指出了几个未来的研究指标。
translated by 谷歌翻译
We study the problem of explaining link predictions in the Knowledge Graph Embedding (KGE) models. We propose an example-based approach that exploits the latent space representation of nodes and edges in a knowledge graph to explain predictions. We evaluated the importance of identified triples by observing progressing degradation of model performance upon influential triples removal. Our experiments demonstrate that this approach to generate explanations outperforms baselines on KGE models for two publicly available datasets.
translated by 谷歌翻译
Machine learning (ML) on graph-structured data has recently received deepened interest in the context of intrusion detection in the cybersecurity domain. Due to the increasing amounts of data generated by monitoring tools as well as more and more sophisticated attacks, these ML methods are gaining traction. Knowledge graphs and their corresponding learning techniques such as Graph Neural Networks (GNNs) with their ability to seamlessly integrate data from multiple domains using human-understandable vocabularies, are finding application in the cybersecurity domain. However, similar to other connectionist models, GNNs are lacking transparency in their decision making. This is especially important as there tend to be a high number of false positive alerts in the cybersecurity domain, such that triage needs to be done by domain experts, requiring a lot of man power. Therefore, we are addressing Explainable AI (XAI) for GNNs to enhance trust management by exploring combining symbolic and sub-symbolic methods in the area of cybersecurity that incorporate domain knowledge. We experimented with this approach by generating explanations in an industrial demonstrator system. The proposed method is shown to produce intuitive explanations for alerts for a diverse range of scenarios. Not only do the explanations provide deeper insights into the alerts, but they also lead to a reduction of false positive alerts by 66% and by 93% when including the fidelity metric.
translated by 谷歌翻译
网络安全漏洞信息通常由多个渠道记录,包括政府漏洞存储库,个人维护的漏洞收集平台或漏洞披露的电子邮件列表和论坛。从不同渠道整合脆弱性信息可以使全面的威胁评估和快速部署到各种安全机制。但是,当今实体一致性技术的局限性阻碍了自动收集此类信息的努力。在我们的研究中,我们注释了第一个网络安全域实体对齐数据集并揭示安全实体的独特特征。基于这些观察结果,我们提出了第一个网络安全实体对准模型CEAM,该模型CAM,该模型为基于GNN的实体比对配备了两种机制:不对称的掩盖聚集和分区的注意力。网络安全域实体比对数据集的实验结果表明,CEAM明显优于最先进的实体比对方法。
translated by 谷歌翻译
金融部门中区块链和分布式分类帐技术(DLT)的兴起产生了社会经济转变,引发了法律关注和监管计划。尽管DLT的匿名性可以保护隐私权,数据保护和其他公民自由的权利,但缺乏身份证明阻碍了问责制,调查和执法。最终的挑战范围扩展到打击洗钱以及恐怖主义和扩散的融资(AML/CFT)的规则。由于执法机构和分析公司已经开始成功地应用取证来跟踪区块链生态系统的货币,因此在本文中,我们着重于这些技术的不断增长的相关性。特别是,我们提供了有关机器学习,网络和交易图分析的货币互联网(IOM)应用程序的见解。在提供了IOM中匿名的概念以及AML/CFT和区块链取证之间的相互作用的一些背景之后,我们着重于导致实验的异常检测方法。也就是说,我们通过各种机器学习技术分析了一个现实世界中的比特币交易数据集。我们的说法是,AML/CFT域可以从机器学习中的新图形分析方法中受益。确实,我们的发现表明,图形卷积网络(GCN)和图形注意网络(GAT)神经网络类型代表了AML/CFT合规性的有希望的解决方案。
translated by 谷歌翻译
在这里,我们研究了无监督实体解析中匹配的记录聚类问题。我们建立在名为Data Whink Machine(DWM)的最先进的概率框架上。我们介绍基于图形的分层2步记录聚类方法(GDWM),首先识别大,连接的组件,或者在我们调用它们时,使用在DWM中使用的基于图的传递闭合算法匹配的记录对中的软簇。随后通过使用适应性的基于图形的模块化优化方法将发现的软群体分解为更精确的实体簇。我们的方法提供了若干优势,主要是DWM的原始实施,主要是显着的加速,提高精度,总体增加的F1分数。我们展示了我们使用多个合成数据集的实验的方法的功效。我们的结果还提供了图表理论的算法效用的证据,尽管他们在无监督实体解决方案中的文献中的稀疏性。
translated by 谷歌翻译
已经探索了监督机器学习模型的算法追索问题的问题,以提供决策支持系统中更容易解释,透明和健壮的结果。未开发的区域是用于异常检测的算法求程,特别是仅具有离散特征值的表格数据。这里的问题是提出一组反事实,通过潜在的异常检测模型被认为是正常的,以便应用程序可以将此信息用于解释目的或推荐对策。我们提出了一种方法 - 在表格数据(CARAT)中保留异常算法的背景,该方法是有效,可扩展性且不可知的,对基础异常检测模型。 Carat使用基于变压器的编码器模型来通过查找可能性低的特征来解释异常。随后使用异常实例中特征的整体上下文来修改突出显示的功能,从而生成语义相干的反事实。广泛的实验有助于证明克拉的功效。
translated by 谷歌翻译
如今,算法在控制或影响我们生活的各个方面的许多技术系统中起着关键作用。结果,提供解释以满足用户和组织的需求,越来越多地受到法律法规,行为准则和公众的期望。但是,由于法律和法规没有规定如何满足这种期望,因此通常会留下组织来设计自己的解释性方法,不可避免地增加合规性和良好的治理成本。因此,我们提出了“通过设计的解释性”,这是一种以主动措施为特征的整体方法,包括在决策系统设计中的解释能力。本文介绍了软件工程工作流程中解释性方法的技术步骤,以实现域专家针对特定应用程序上下文提出的要求的解释能力。解释性逐设计方法的输出是一组配置,允许可重复使用的服务(称为解释助手)利用应用程序提供的日志并创建可以查询以提取相关数据点的出处痕迹,而这又可以是用于解释计划,以构建向消费者个性化的解释。遵循这些步骤,组织将能够设计其决策系统,以产生满足指定要求的解释,无论是根据法律,法规或业务需求而设计的。我们将方法应用于两个应用程序,从而部署了解释助理,展示了解释功能。最后,测量了相关的开发成本,表明构建解释的方法在开发时间方面是可以探讨的,每个解释句子可能低至两个小时。
translated by 谷歌翻译
垃圾邮件是困扰网络规模的数字平台的一个严重问题,可促进用户内容创建和分发。它损害了平台的完整性,推荐和搜索等服务的性能以及整体业务。垃圾邮件发送者从事各种与非垃圾邮件发送者不同的虐待和回避行为。用户的复杂行为可以通过富含节点和边缘属性的异质图很好地表示。学会在网络尺度平台的图表中识别垃圾邮件发送者,因为其结构上的复杂性和大小。在本文中,我们提出了塞纳河(使用相互作用网络检测垃圾邮件检测),这是一个新的图形框架上的垃圾邮件检测模型。我们的图形同时捕获了丰富的用户的详细信息和行为,并可以在十亿个尺度的图表上学习。我们的模型考虑了邻域以及边缘类型和属性,从而使其可以捕获广泛的垃圾邮件发送者。塞纳河(Seine)经过数千万节点和数十亿个边缘的真实数据集的培训,获得了80%的召回率,并以1%的假阳性率获得了80%的召回率。塞纳河(Seine)在公共数据集上的最先进技术实现了可比的性能,同时务实可用于大规模生产系统。
translated by 谷歌翻译
检测欺诈性交易是控制​​电子商务市场风险的重要组成部分。除了已经在生产中部署的基于规则和机器学习过滤器外,我们还希望使用图形神经网络(GNN)进行有效的实时推理,这对于在事务图中捕获多跃风风险传播非常有用。但是,在生产中实施GNN时出现了两个挑战。首先,在消息传递中不应考虑以预测过去中的动态图中的未来信息。其次,图形查询和GNN模型推断的延迟通常高达数百毫秒,这对于某些关键的在线服务来说是昂贵的。为了应对这些挑战,我们提出了一个批处理和实时的成立图拓扑(BRIGHT)框架,以进行端到端的GNN学习,以允许有效的在线实时推理。 Bright框架由图形转换模块(两阶段有向图)和相应的GNN体系结构(Lambda神经网络)组成。两阶段的指示图保证了通过邻居传递的信息仅来自历史支付交易。它分别由代表历史关系和实时链接的两个子图组成。 Lambda神经网络将推断分为两个阶段:实体嵌入的批次推断和交易预测的实时推断。我们的实验表明,在平均W.R.T.〜精确度中,BRIGHT优于基线模型> 2 \%。此外,BRIGHT在实时欺诈检测上在计算上是有效的。关于端到端性能(包括邻居查询和推理),BRIGHT可以将P99延迟降低> 75 \%。对于推理阶段,与传统GNN相比,我们的加速平均为7.8美元。
translated by 谷歌翻译
图形神经网络的不透明推理导致缺乏人类的信任。现有的图形网络解释器试图通过提供事后解释来解决此问题,但是,它们无法使模型本身更容易解释。为了填补这一空白,我们介绍了概念编码器模块,这是图形网络的第一个可区分概念 - 发现方法。所提出的方法使图形网络可以通过首先发现图形概念,然后使用这些来解决任务来解释。我们的结果表明,这种方法允许图形网络:(i)达到模型准确性与它们的等效香草版本相当,(ii)发现有意义的概念,以实现高概念完整性和纯度得分,(iii)提供基于高质量的概念逻辑。对其预测的解释,以及(iv)在测试时支持有效的干预措施:这些可以提高人类的信任并显着提高模型绩效。
translated by 谷歌翻译
事实证明,信息提取方法可有效从结构化或非结构化数据中提取三重。以(头部实体,关系,尾部实体)形式组织这样的三元组的组织称为知识图(kgs)。当前的大多数知识图都是不完整的。为了在下游任务中使用kgs,希望预测kgs中缺少链接。最近,通过将实体和关系嵌入到低维的矢量空间中,旨在根据先前访问的三元组来预测三元组,从而对KGS表示不同的方法。根据如何独立或依赖对三元组进行处理,我们将知识图完成的任务分为传统和图形神经网络表示学习,并更详细地讨论它们。在传统的方法中,每个三重三倍将独立处理,并在基于GNN的方法中进行处理,三倍也考虑了他们的当地社区。查看全文
translated by 谷歌翻译
图形神经网络(GNN)已成为编码图形结构数据的强大工具。由于其广泛的应用程序,越来越需要开发工具来解释GNN如何做出给定的图形结构数据决定。现有的基于学习的GNN解释方法在培训中是特定于任务的,因此遭受了关键的缺点。具体而言,它们无法为使用单个解释器提供多任务预测模型的解释。在GNN以自我监督的方式训练的情况下,他们也无法提供解释,并且在未来的下游任务中使用了结果表示。为了解决这些局限性,我们提出了一个任务不合时宜的GNN解释器(TAGE),该解释器(Tage)独立于下游模型,并在自学人员的情况下接受了训练,而对下游任务不了解。 Tage可以通过看不见的下游任务来解释GNN嵌入模型,并可以有效解释多任务模型。我们的广泛实验表明,通过使用相同的模型来解释多个下游任务的预测,同时实现了与当前最新的GNN解释方法一样好甚至更好的解释质量,可以显着提高解释效率。我们的代码可公开作为DIG库的一部分,网址为https://github.com/divelab/dig/tree/main/main/dig/xgraph/tage/。
translated by 谷歌翻译