我们提出了一种有效的可解释的神经象征模型来解决感应逻辑编程(ILP)问题。在该模型中,该模型是由在分层结构中组织的一组元规则构建的,通过学习嵌入来匹配元规则的事实和身体谓词来发明一阶规则。为了实例化它,我们专门设计了一种表现型通用元规则集,并证明了它们产生的喇叭条件的片段。在培训期间,我们注入了控制的\ PW {gumbel}噪声以避免本地最佳,并采用可解释性 - 正则化术语来进一步指导融合到可解释规则。我们在针对几种最先进的方法上证明我们对各种任务(ILP,视觉基因组,强化学习)的模型进行了验证。
translated by 谷歌翻译
推理,学习和决策的整合是构建更多普通AI系统的关键。作为朝这个方向的一步,我们提出了一种新颖的神经逻辑架构,可以解决电感逻辑编程(ILP)和深增强学习(RL)问题。我们的体系结构通过分配权重来谓词而不是规则来定义一阶逻辑程序的受限但呈现的连续空间。因此,它是完全可分的,可以用梯度下降有效地培训。此外,在与演员批评算法的深度RL设置中,我们提出了一种新颖的高效评论家建筑。与ILP和RL问题的最先进方法相比,我们的命题实现了出色的性能,同时能够提供完全可解释的解决方案和更好地缩放,特别是在测试阶段。
translated by 谷歌翻译
归纳逻辑编程(ILP)是一种机器学习的形式。ILP的目标是诱导推广培训示例的假设(一组逻辑规则)。随着ILP转30,我们提供了对该领域的新介绍。我们介绍了必要的逻辑符号和主要学习环境;描述ILP系统的构建块;比较几个维度的几个系统;描述四个系统(Aleph,Tilde,Aspal和Metagol);突出关键应用领域;最后,总结了未来研究的当前限制和方向。
translated by 谷歌翻译
尽管在现代的机器学习算法的最新进展,其内在机制的不透明仍是采用的障碍。在人工智能系统灌输信心和信任,解释的人工智能已成为提高现代机器学习算法explainability的响应。归纳逻辑程序(ILP),符号人工智能的子场中,起着产生,因为它的直观的逻辑驱动框架的可解释的解释有希望的作用。 ILP有效利用绎推理产生从实例和背景知识解释的一阶分句理论。然而,在发展中通过ILP需要启发方法的几个挑战,在实践中他们的成功应用来解决。例如,现有的ILP系统通常拥有广阔的解空间,以及感应解决方案是对噪声和干扰非常敏感。本次调查总结在ILP的最新进展和统计关系学习和神经象征算法的讨论,其中提供给ILP协同意见。继最新进展的严格审查,我们划定观察的挑战,突出对发展不言自明的人工智能系统进一步ILP动机研究的潜在途径。
translated by 谷歌翻译
通过归纳逻辑编程(ILP)综合大型逻辑程序通常需要中间定义。但是,用强化谓词混乱假设空间通常会降低性能。相比之下,梯度下降提供了一种有效的方法来在此类高维空间中找到溶液。到目前为止,神经符号ILP方法尚未完全利用这一点。我们提出了一种基于ILP的合成方法,该方法受益于大规模谓词发明,利用了高维梯度下降的功效。我们发现包含十个辅助定义以上的符号解决方案。这超出了现有的神经符号ILP系统的成就,因此构成了该领域的里程碑。
translated by 谷歌翻译
程序中的魔术值是一个恒定的符号,对于执行程序至关重要,但对其选择没有明确的解释。对于现有的程序综合方法,很难学习具有魔法价值的学习程序。为了克服这一限制,我们引入了一种归纳逻辑编程方法,以有效地学习具有魔术价值的程序。我们对包括程序合成,药物设计和游戏玩法在内的各种领域的实验表明,我们的方法可以(i)在预测精度和学习时间方面优于现有方法,(ii)从无限领域中学习魔法价值观,例如PI的值和(iii)比例为具有数百万个恒定符号的域。
translated by 谷歌翻译
在Meta解释学习(MIL)中,使用作为感应偏差的二阶数据乐曲条款,由用户手动定义。在这项工作中,我们展示了Mil的二阶元素可以通过Mil学习。我们通过$ \ theta $ -subsumption定义元素的一般性排序,并显示用户定义的\ quph {sort metarules}是通过语言类中最常见的\ emph {matrix元素}的专业化来实现的;并且,这些矩阵元素又通过三阶\ EMPH {打孔元素}的专用来导出,该变量在该组原子上量化,并且仅需要用户定义的文字数量的上限。我们表明元素语言的基数是语言中的多项式在打孔元素中的文字数量。我们通过分辨率重新框架MIL作为元素专业化。我们修改MIL Mularule专业化运营商以返回新的元标,而不是一阶条文,并证明新操作员的正确性。我们将新的运营商实施为辛劳,是MIL系统Louise的子系统。我们的实验表明,随着通过辛劳学到的分类元素逐渐取代的用户定义的分类元素,Louise的预测精度保持在训练时间小的成本。我们得出结论,自动导出的元素可以取代用户定义的元标。
translated by 谷歌翻译
复杂的推理问题是使用逻辑规则最清楚,很容易指定的,但是需要具有汇总的递归规则,例如计数和总和用于实际应用。不幸的是,此类规则的含义是一个重大挑战,导致许多不同的语义分歧。本文介绍了与汇总的递归规则的统一语义,扩展了统一的基础语义和约束语义,以否定为递归规则。关键思想是支持对不同语义基础的不同假设的简单表达,并正交使用其简单的含义来解释聚合操作。我们介绍了语义的形式定义,证明了语义的重要特性,并与先前的语义相比。特别是,我们提出了对聚集的有效推断,该推论为我们从文献中研究的所有示例提供了精确的答案。我们还将语义应用于各种挑战的示例,并表明我们的语义很简单,并且在所有情况下都与所需的结果相匹配。最后,我们描述了最具挑战性的示例实验,当他们可以计算正确的答案时,表现出与知名系统相比出现的出色性能。
translated by 谷歌翻译
我们提出了一种使用绑架过程,在给定的答案集编程(ASP)规则集(ASP)规则集方面生成可能的查询证明,该过程仅根据输入规则自动构建了陈腐的空间。给定一组(可能是空的)用户提供的事实,我们的方法会渗透到需要查询的任何其他事实,然后输出这些额外的事实,而无需用户需要明确指定所有占有无误的空间。我们还提出了一种方法,以生成与查询的理由图相对应的一组定向边缘。此外,通过不同形式的隐式术语替换,我们的方法可以考虑用户提供的事实并适当修改绑架解决方案。过去的绑架工作主要基于目标定向方法。但是,这些方法可能导致并非真正声明的求解器。关于实现绑架的绑架者,例如Clingo ASP求解器,做出的工作要少得多。我们描述了可以直接在Clingo中运行的新型ASP程序,以产生绑架解决方案和定向边缘集,而无需修改基础求解引擎。
translated by 谷歌翻译
通过归纳逻辑编程(ILP)学习复杂程序仍然是一个强大的挑战。现有的高阶启用的ILP系统显示出改善的准确性和学习性能,但仍然受到潜在学习机制的局限性的局限性。实验结果表明,我们通过高阶定义从失败范式的多功能学习的延伸显着提高了现有系统所需的繁重人类指导的学习表现。此外,我们提供了一个理论框架,捕获我们的扩展名处理的高阶定义类。
translated by 谷歌翻译
最近关于神经象征性归纳逻辑编程的工作导致了有希望的方法,可以从嘈杂,现实世界数据中学习解释规则。虽然一些提议近似逻辑运算符,具有不同的逻辑,从模糊或实际值逻辑,无参数,从而无参数,从而减少它们适合数据的容量,其他方法仅基于逻辑摆动,使得难以解释学习的“规则”。在本文中,我们提出了与最近提出的逻辑神经网络(LNN)的学习规则。与其他人相比,LNN与经典布尔逻辑的强大连接,从而允许精确地解释学习规则,同时覆盆可以用基于梯度的优化训练的参数来有效地拟合数据。我们将LNN扩展以在一阶逻辑中引导规则。我们对标准基准测试任务的实验证实,LNN规则是高度可解释的,并且由于其灵活的参数化而可以实现可比或更高的准确性。
translated by 谷歌翻译
人工智能代理必须从周围环境中学到学习,并了解所学习的知识,以便做出决定。虽然从数据的最先进的学习通常使用子符号分布式表示,但是使用用于知识表示的一阶逻辑语言,推理通常在更高的抽象级别中有用。结果,将符号AI和神经计算结合成神经符号系统的尝试已经增加。在本文中,我们呈现了逻辑张量网络(LTN),一种神经组织形式和计算模型,通过引入许多值的端到端可分别的一阶逻辑来支持学习和推理,称为真实逻辑作为表示语言深入学习。我们表明LTN为规范提供了统一的语言,以及多个AI任务的计算,如数据聚类,多标签分类,关系学习,查询应答,半监督学习,回归和嵌入学习。我们使用TensorFlow2的许多简单的解释例实施和说明上述每个任务。关键词:神经组音恐怖症,深度学习和推理,许多值逻辑。
translated by 谷歌翻译
虽然深增强学习已成为连续决策问题的有希望的机器学习方法,但对于自动驾驶或医疗应用等高利害域来说仍然不够成熟。在这种情况下,学习的政策需要例如可解释,因此可以在任何部署之前检查它(例如,出于安全性和验证原因)。本调查概述了各种方法,以实现加固学习(RL)的更高可解释性。为此,我们将解释性(作为模型的财产区分开来和解释性(作为HOC操作后的讲话,通过代理的干预),并在RL的背景下讨论它们,并强调前概念。特别是,我们认为可译文的RL可能会拥抱不同的刻面:可解释的投入,可解释(转型/奖励)模型和可解释的决策。根据该计划,我们总结和分析了与可解释的RL相关的最近工作,重点是过去10年来发表的论文。我们还简要讨论了一些相关的研究领域并指向一些潜在的有前途的研究方向。
translated by 谷歌翻译
Two approaches to AI, neural networks and symbolic systems, have been proven very successful for an array of AI problems. However, neither has been able to achieve the general reasoning ability required for human-like intelligence. It has been argued that this is due to inherent weaknesses in each approach. Luckily, these weaknesses appear to be complementary, with symbolic systems being adept at the kinds of things neural networks have trouble with and vice-versa. The field of neural-symbolic AI attempts to exploit this asymmetry by combining neural networks and symbolic AI into integrated systems. Often this has been done by encoding symbolic knowledge into neural networks. Unfortunately, although many different methods for this have been proposed, there is no common definition of an encoding to compare them. We seek to rectify this problem by introducing a semantic framework for neural-symbolic AI, which is then shown to be general enough to account for a large family of neural-symbolic systems. We provide a number of examples and proofs of the application of the framework to the neural encoding of various forms of knowledge representation and neural network. These, at first sight disparate approaches, are all shown to fall within the framework's formal definition of what we call semantic encoding for neural-symbolic AI.
translated by 谷歌翻译
形状约束语言(SHACL)是通过验证图表上的某些形状来验证RDF数据的最新W3C推荐语言。先前的工作主要集中在验证问题上,并且仅针对SHACL的简化版本研究了对设计和优化目的至关重要的可满足性和遏制的标准决策问题。此外,SHACL规范不能定义递归定义的约束的语义,这导致文献中提出了几种替代性递归语义。尚未研究这些不同语义与重要决策问题之间的相互作用。在本文中,我们通过向新的一阶语言(称为SCL)的翻译提供了对SHACL的不同特征的全面研究,该语言精确地捕获了SHACL的语义。我们还提出了MSCL,这是SCL的二阶扩展,它使我们能够在单个形式的逻辑框架中定义SHACL的主要递归语义。在这种语言中,我们还提供了对过滤器约束的有效处理,这些滤镜经常在相关文献中被忽略。使用此逻辑,我们为不同的SHACL片段的可满足性和遏制决策问题提供了(联合)可决定性和复杂性结果的详细图。值得注意的是,我们证明这两个问题对于完整的语言都是不可避免的,但是即使面对递归,我们也提供了有趣的功能的可决定性组合。
translated by 谷歌翻译
归纳逻辑编程是一种机器学习,其中从示例中了解了哪些逻辑程序。该学习通常相对于作为逻辑程序提供的一些背景知识发生。本文介绍了底部预处理,一种在ILP系统上生成初始约束的方法必须考虑。底部预处理将思想应用于逆征集到现代ILP系统。逆存在是一种有影响力的早期ILP方法,促进了progol。本文还提供$ \ Bot $ -popper,这是现代ILP系统Popper的底部预处理的实施。实验显示,底部预处理可以降低ILP系统的难题的学习时间。当问题中的背景知识量大时,这种减少可能是特别重要的。
translated by 谷歌翻译
我们在答案集编程(ASP)中,提供了全面的可变实例化或接地的理论基础。在ASP的建模语言的语义上构建,我们在(固定点)运营商方面介绍了接地算法的正式表征。专用良好的运营商扮演了一个主要作用,其相关模型提供了划定接地结果以及随机简化的语义指导。我们地址呈现出一种竞技级逻辑程序,该程序包含递归聚合,从而达到现有ASP建模语言的范围。这伴随着一个普通算法框架,详细说明递归聚集体的接地。给定的算法基本上对应于ASP接地器Gringo中使用的算法。
translated by 谷歌翻译
我们概述了在其知识表示和声明问题解决的应用中的视角下的时间逻辑编程。这些程序是将通常规则与时间模态运算符组合的结果,如线性时间时间逻辑(LTL)。我们专注于最近的非单调形式主义的结果​​称为时间平衡逻辑(电话),该逻辑(电话)为LTL的全语法定义,但是基于平衡逻辑执行模型选择标准,答案集编程的众所周知的逻辑表征(ASP )。我们获得了稳定模型语义的适当延伸,以进行任意时间公式的一般情况。我们记得电话和单调基础的基本定义,这里的时间逻辑 - 和那里(THT),并研究无限和有限迹线之间的差异。我们还提供其他有用的结果,例如将转换成其他形式主义,如量化的平衡逻辑或二阶LTL,以及用于基于自动机计算的时间稳定模型的一些技术。在第二部分中,我们专注于实际方面,定义称为较近ASP的时间逻辑程序的句法片段,并解释如何在求解器Telingo的构建中被利用。
translated by 谷歌翻译
回答集编程(ASP)已成为一种流行的和相当复杂的声明问题解决方法。这是由于其具有吸引力的地址解决方案的工作流程,这是可以轻松解决问题解决的方法,即使对于计算机科学外的守护者而言。与此不同,底层技术的高度复杂性使得ASP专家越来越难以将想法付诸实践。有关解决此问题,本教程旨在使用户能够构建自己的基于ASP的系统。更确切地说,我们展示了ASP系统Clingo如何用于扩展ASP和实现定制的专用系统。为此,我们提出了两个替代方案。我们从传统的AI技术开始,并展示元编程如何用于扩展ASP。这是一种相当轻的方法,依赖于Clingo的reation特征来使用ASP本身表达新功能。与此不同,本教程的主要部分使用传统的编程(在Python中)来通过其应用程序编程接口操纵Clingo。这种方法允许改变和控制ASP的整个模型 - 地面解决工作流程。 COMENT of Clingo的新应用程序课程使我们能够通过自定义类似于Clingo中的进程来绘制Clingo的基础架构。例如,我们可能会互动到程序的抽象语法树,控制各种形式的多射击求解,并为外国推论设置理论传播者。另一种横截面结构,跨越元以及应用程序编程是Clingo的中间格式,即指定底层接地器和求解器之间的界面。我们通过示例和几个非琐碎的案例研究说明了本教程的前述概念和技术。
translated by 谷歌翻译
域特异性启发式方法是有效解决组合问题的必不可少的技术。当前将特定于域的启发式方法与答案集编程(ASP)集成的方法在处理基于部分分配的非单调指定的启发式方法时,这是不令人满意的。例如,在挑选尚未放入垃圾箱中的物品时,这种启发式方法经常发生。因此,我们介绍了ASP中域特异性启发式方法声明性规范的新颖语法和语义。我们的方法支持启发式陈述,依赖于解决过程中所维持的部分任务,这是不可能的。我们在Alpha中提供了一种实现,该实现使Alpha成为第一个支持声明指定的域特定启发式方法的懒惰的ASP系统。使用两个实际的示例域来证明我们的提议的好处。此外,我们使用我们的方法用A*实施知情},该搜索首次在ASP中解决。 A*应用于两个进一步的搜索问题。实验证实,结合懒惰的ASP解决方案和我们的新型启发式方法对于解决工业大小的问题至关重要。
translated by 谷歌翻译