用于解决众所周知的布尔满意度问题(SAT)的计算机程序,所谓的求解器已有数十年的改善。在解决方案过程中,这些求解器如此之快的原因之一是对求解过程中公式结构属性的隐含用法。这样的结构指标之一是所谓的树宽,它试图测量公式实例与变得容易的距离(类似树)。这项工作着重于基于逻辑的问题和基于树宽的方法和解决方案的工具。这些问题中的许多也与知识表示和推理(KR)以及人工智能(AI)有关。我们提出了一种新型的问题,这是由分解引导(DG)提到的。这种还原类型构成了解决自2004年以来一直开放的有界树宽的量化布尔公式(QBFS)问题的基础。该问题的解决方案随后产生了一种新方法,以证明精确的下限范围用于一系列进一步的形式主义在逻辑,KR和AI中。尽管已建立的下限,但我们还是通过直接使用树宽来实现一种算法来有效地求解SAT的扩展。我们的实施是基于查找实例的抽象,然后在此过程中逐步完善。因此,我们的观察结果证实,树宽是现代求解器设计中应考虑的重要措施。
translated by 谷歌翻译
突出非克劳兰(NC)公式的富有表现性比基于氏子型公式的指数更丰富。然而,氏菌效率优于非克劳尿的效率。实际上,后者的一个主要弱点是,虽然喇叭子宫公式以及喇叭算法,对于高效率至关重要,但是已经提出了非符号形式的喇叭状公式。为了克服这种弱点,我们通过将喇叭图案充分提升到NC形式,定义HOLE非字母(HORN-NC)公式的混合类$ \ MATHBB {H_ {NC}}。争论$ \ MATHBB {H_ {NC}} $以及未来的Horn-NC算法,应随着喇叭类的股份效率增加,增加非信用效率。其次,我们:(i)给出$ \ mathbb的紧凑,归纳定义{h_ {nc}} $; (ii)证明了句法$ \ mathbb {h_ {nc}} $ suppups over class,但语义上两个类都是等效的,并且(iii)表征属于$ \ mathbb {h_ {nc}} $的非锁友公式。第三,我们定义了非字词单元分辨率计算,$ ur_ {nc} $,并证明它检查多项式时间$ \ mathbb {h_ {nc}} $的可靠性。这一事实是我们的知识,使$ \ mathbb {h_ {nc}} $中的nc推理中的第一个特征多项式类。最后,我们证明了$ \ mathbb {h_ {nc}} $线性识别,也是严格的是法官和比喇叭类呈指数富裕。我们在NC自动推理中讨论了这一点,例如,可靠性解决,定理证明,逻辑编程等可以直接受益于$ \ mathbb {h_ {nc} $和$ ur_ {nc} $,它作为其被证明属性的副产物,$ \ mathbb { H_ {NC}} $ as作为分析喇叭函数和含义系统的新替代方案。
translated by 谷歌翻译
大多数-AT是确定联合正常形式(CNF)中输入$ N $的最低价公式的问题至少为2 ^ {n-1} $令人满意的作业。在对概率规划和推论复杂性的各种AI社区中,广泛研究了多数饱和问题。虽然大多数饱满为期40多年来,但自然变体的复杂性保持开放:大多数 - $ k $ SAT,其中输入CNF公式仅限于最多$ k $的子句宽度。我们证明,每辆$ k $,大多数 - $ k $ sat是在p的。事实上,对于任何正整数$ k $和ratic $ \ rho \ in(0,1)$ in(0,1)$与有界分比者,我们给出了算法这可以确定给定的$ k $ -cnf是否至少有$ \ rho \ cdot 2 ^ n $令人满意的分配,在确定性线性时间(而先前的最着名的算法在指数时间中运行)。我们的算法对计算复杂性和推理的复杂性具有有趣的积极影响,显着降低了相关问题的已知复杂性,例如E-Maj-$ K $ Sat和Maj-Maj- $ K $ Sat。在我们的方法中,通过提取在$ k $ -cnf的相应设置系统中发现的向日葵,可以通过提取向日葵来解决阈值计数问题的有效方法。我们还表明,大多数 - $ k $ sat的易腐烂性有些脆弱。对于密切相关的gtmajority-sat问题(我们询问给定公式是否超过2 ^ {n-1} $满足分配),这已知是pp-cleanting的,我们表明gtmajority-$ k $ sat在p for $ k \ le 3 $,但为$ k \ geq 4 $完成np-cleante。这些结果是违反直觉的,因为这些问题的“自然”分类将是PP完整性,因为GTMAJority的复杂性存在显着差异 - $ k $ SAT和MOSTION- $ K $ SAT为所有$ k \ ge 4 $。
translated by 谷歌翻译
Cohn and Umans proposed a framework for developing fast matrix multiplication algorithms based on the embedding computation in certain groups algebras. In subsequent work with Kleinberg and Szegedy, they connected this to the search for combinatorial objects called strong uniquely solvable puzzles (strong USPs). We begin a systematic computer-aided search for these objects. We develop and implement constraint-based algorithms build on reductions to $\mathrm{SAT}$ and $\mathrm{IP}$ to verify that puzzles are strong USPs, and to search for large strong USPs. We produce tight bounds on the maximum size of a strong USP for width $k \le 5$, construct puzzles of small width that are larger than previous work, and improve the upper bounds on strong USP size for $k \le 12$. Although our work only deals with puzzles of small-constant width, the strong USPs we find imply matrix multiplication algorithms that run in $O(n^\omega)$ time with exponent $\omega \le 2.66$. While our algorithms do not beat the fastest algorithms, our work provides evidence and, perhaps, a path to finding families of strong USPs that imply matrix multiplication algorithms that are more efficient than those currently known.
translated by 谷歌翻译
组合优化是运营研究和计算机科学领域的一个公认领域。直到最近,它的方法一直集中在孤立地解决问题实例,而忽略了它们通常源于实践中的相关数据分布。但是,近年来,人们对使用机器学习,尤其是图形神经网络(GNN)的兴趣激增,作为组合任务的关键构件,直接作为求解器或通过增强确切的求解器。GNN的电感偏差有效地编码了组合和关系输入,因为它们对排列和对输入稀疏性的意识的不变性。本文介绍了对这个新兴领域的最新主要进步的概念回顾,旨在优化和机器学习研究人员。
translated by 谷歌翻译
我们从逻辑和公式大小方面概念化了解释性,在非常一般的环境中给出了许多相关的解释性定义。我们的主要兴趣是所谓的特殊解释问题,旨在解释输入模型中输入公式的真实价值。解释是一个最小尺寸的公式,(1)与输入模型上的输入公式一致,(2)将所涉及的真实价值传输到全球输入公式,即每个模型上。作为一个重要的例子,我们在这种情况下研究了命题逻辑,并表明在多项式层次结构的第二级中,特殊的解释性问题是完整的。我们还将在答案集编程中提供了此问题的实施,并研究了其与解释N-Queens和主导集合问题的答案有关的能力。
translated by 谷歌翻译
伊瓦玛(Iwama)引入的命中公式是一类不寻常的命题CNF公式。它们的可满足性不仅可以在多项式时间内确定,而且甚至可以以封闭形式计算其模型。这与其他多项式定义类别形成鲜明对比,这些类别通常具有基于回溯和分辨率的算法,并且模型计数仍然很难,例如2-SAT和HORN-SAT。但是,那些基于分辨率的算法通常很容易地暗示着在分辨率复杂性上的上限,这对于达到公式而缺少。击中公式难以解决吗?在本文中,我们采取了第一步,回答这个问题。我们表明,击中公式的分辨率复杂性由Kullmann和Zhao首先研究的所谓不可约合的击球公式主导,这些配方不能由较小的击球公式组成。但是,根据定义,很难构建大型不可理解的击中公式。甚至还不知道是否存在无限的许多。基于我们的理论结果,我们在Nauty软件包之上实施了有效的算法,以列举所有不可约14个条款的不可约束的击中公式。我们还通过将已知的SAT编码用于我们的目的来确定生成的击中公式的确切分辨率复杂性。我们的实验结果表明,击中公式确实很难解决。
translated by 谷歌翻译
实际上,所有验证和综合技术都假定正式规格很容易获得,在功能上正确并完全匹配工程师对给定系统的理解。但是,在实践中,这种假设通常是不现实的:正式化系统要求非常困难,容易出错,并且需要大量的培训。为了减轻这一严重的障碍,我们提出了一种从根本上新颖的编写形式规范的方法,称为线性时间逻辑(LTL)的规范草图。关键的想法是,工程师可以提供部分LTL公式,称为LTL草图,在该公式中很难形式化。给定一组描述规范应该或不应允许的系统行为的示例,然后将所谓的草图算法的任务完成给定的草图,以使所得的LTL公式与示例一致。我们表明,决定是否可以完成草图属于复杂性NP,并呈现两个基于SAT的草图算法。我们还证明,素描是使用原型实现编写形式规格的实用方法。
translated by 谷歌翻译
我们连接学习算法和算法自动化证明搜索在命题证明系统中:每一种充分强大,表现良好的命题证明系统$ P $,我们证明以下陈述相当,1.可提供学习:$ P $证明p -size电路通过统一分布的子尺寸尺寸电路与成员资格查询进行了学习。 2.可提供自动性:$ P $证明$ P $可通过非均匀电路在表达P尺寸电路下限的命题公式上自动。在这里,如果I.-III,则$ P $足够强大和表现良好。持有:I. $ P $ P-SIMULATES JE \ v {R} \'ABEK的系统$ WF $(通过调节弱鸽子原则加强扩展弗雷格系统$ EF $); II。 $ P $满足标准证明系统的一些基本属性,P-SIMUTED $ WF $; III。 $ P $可有效地证明一些布尔函数$ H $ H $ H $难以平均为子增长尺寸电路。例如,如果III。保持$ p = wf $,然后项目1和2等同于$ p = wf $。如果在Ne \ Cop Cone $的函数$ H \ IN,这是平均尺寸为2 ^ {n / 4} $的电路,对于每个足够大的$ n $,那么有一个明确的命题证明系统$ p $满意的属性I.-III。,即物品1和2的等价,以$ p $持有。
translated by 谷歌翻译
Posibilistic Logic是处理不确定和部分不一致信息的最扩展方法。关于正常形式,可能性推理的进步大多专注于字幕形式。然而,现实世界问题的编码通常导致非人(NC)公式和NC-To-Clausal翻译,产生严重的缺点,严重限制了字符串推理的实际表现。因此,通过计算其原始NC形式的公式,我们提出了几种贡献,表明可能在可能的非字词推理中也是可能的显着进展。 {\ em首先,我们定义了{\ em possibilistic over非词素知识库,}或$ \ mathcal {\ overline {h}} _ \ sigma $的类别,其中包括类:可能主义的喇叭和命题角 - NC。 $ \ mathcal {\ overline {h}} _ \ sigma $被显示为标准喇叭类的一种NC类似的。 {\ em hightly},我们定义{\ em possibilistic非字词单元分辨率,}或$ \ mathcal {u} _ \ sigma $,并证明$ \ mathcal {u} _ \ sigma $正确计算不一致程度$ \ mathcal {\ overline {h}} _ \ sigma $成员。 $ \ Mathcal {Ur} _ \ \ Sigma $之前未提出,并以人为人的方式制定,这会让其理解,正式证明和未来延伸到非人类决议。 {\ em第三},我们证明计算$ \ mathcal {\ overline {h}} _ \ sigma $成员的不一致程度是多项式时间。虽然可能存在于可能存在的逻辑中的贸易课程,但所有这些都是字符串,因此,$ \ mathcal {\ overline {h}} _ \ sigma $ of to是可能的主要推理中的第一个特征的多项式非锁友类。
translated by 谷歌翻译
结构分解方法,例如普遍的高树木分解,已成功用于解决约束满意度问题(CSP)。由于可以重复使用分解以求解具有相同约束范围的CSP,因此即使计算本身很难,将资源投资于计算良好的分解是有益的。不幸的是,即使示波器仅略有变化,当前方法也需要计算全新的分解。在本文中,我们迈出了解决CSP $ P $分解的问题的第一步,以使其成为由$ P $修改产生的新CSP $ P'$的有效分解。即使从理论上讲问题很难,我们还是提出并实施了一个有效更新GHD的框架。我们算法的实验评估强烈提出了实际适用性。
translated by 谷歌翻译
冲突驱动的子句学习(CDCL)是解决命题逻辑令人满意问题的非常成功的范式。这种求解器不是简单的深度优先回溯方法,而是以其他条款的形式了解了发生冲突的原因。但是,尽管CDCL求解器取得了巨大的成功,但仍然对以什么方式影响这些求解器的性能有限。考虑到不同的措施,本文非常令人惊讶地证明,从句学习(不摆脱某些条款)不仅可以帮助求解器,而且可能会大大恶化解决方案过程。通过进行广泛的经验分析,我们进一步发现,CDCL求解器的运行时分布是多模式的。这种多模式可以看作是上面描述的恶化现象的原因。同时,这也表明了为什么从条款删除结合条款学习的原因实际上是SAT解决的事实标准,尽管存在这种现象。作为最终贡献,我们表明Weibull混合物分布可以准确描述多模式分布。因此,在基本实例中添加新的子句具有长期运行时间的固有效果。该洞察力提供了一个解释,即为什么忘记条款的技术在CDCL求解器中有用,除了单位传播速度的优化。
translated by 谷歌翻译
深度神经网络(DNN)越来越多地用于安全至关重要的系统中,迫切需要保证其正确性。因此,验证社区设计了多种技术和工具来验证DNN。当DNN验证者发现触发错误的输入时,很容易确认;但是,当他们报告不存在错误时,就无法确保验证工具本身没有缺陷。由于在DNN验证工具中已经观察到了多个错误,因此这将DNN验证的适用性提出了质疑。在这项工作中,我们提出了一种具有证明生产能力的基于简单的DNN验证符的新型机制:产生易于检查的不可满足性的见证人,这证明了没有错误的情况。我们的证明生产是基于众所周知的Farkas引理的有效适应,并结合了处理分段线性函数和数值精确误差的机制。作为概念的证明,我们在Marabou DNN验证者之上实施了我们的技术。我们对避免空中碰撞的安全至关重要系统的评估表明,在几乎所有情况下,证明生产都成功了,只需要最小的开销。
translated by 谷歌翻译
回答集编程(ASP)已成为一种流行的和相当复杂的声明问题解决方法。这是由于其具有吸引力的地址解决方案的工作流程,这是可以轻松解决问题解决的方法,即使对于计算机科学外的守护者而言。与此不同,底层技术的高度复杂性使得ASP专家越来越难以将想法付诸实践。有关解决此问题,本教程旨在使用户能够构建自己的基于ASP的系统。更确切地说,我们展示了ASP系统Clingo如何用于扩展ASP和实现定制的专用系统。为此,我们提出了两个替代方案。我们从传统的AI技术开始,并展示元编程如何用于扩展ASP。这是一种相当轻的方法,依赖于Clingo的reation特征来使用ASP本身表达新功能。与此不同,本教程的主要部分使用传统的编程(在Python中)来通过其应用程序编程接口操纵Clingo。这种方法允许改变和控制ASP的整个模型 - 地面解决工作流程。 COMENT of Clingo的新应用程序课程使我们能够通过自定义类似于Clingo中的进程来绘制Clingo的基础架构。例如,我们可能会互动到程序的抽象语法树,控制各种形式的多射击求解,并为外国推论设置理论传播者。另一种横截面结构,跨越元以及应用程序编程是Clingo的中间格式,即指定底层接地器和求解器之间的界面。我们通过示例和几个非琐碎的案例研究说明了本教程的前述概念和技术。
translated by 谷歌翻译
Multi-agent path finding (MAPF) is a task of finding non-conflicting paths connecting agents' specified initial and goal positions in a shared environment. We focus on compilation-based solvers in which the MAPF problem is expressed in a different well established formalism such as mixed-integer linear programming (MILP), Boolean satisfiability (SAT), or constraint programming (CP). As the target solvers for these formalisms act as black-boxes it is challenging to integrate MAPF specific heuristics in the MAPF compilation-based solvers. We show in this work how the build a MAPF encoding for the target SAT solver in which domain specific heuristic knowledge is reflected. The heuristic knowledge is transferred to the SAT solver by selecting candidate paths for each agent and by constructing the encoding only for these candidate paths instead of constructing the encoding for all possible paths for an agent. The conducted experiments show that heuristically guided compilation outperforms the vanilla variants of the SAT-based MAPF solver.
translated by 谷歌翻译
The most widely studied explainable AI (XAI) approaches are unsound. This is the case with well-known model-agnostic explanation approaches, and it is also the case with approaches based on saliency maps. One solution is to consider intrinsic interpretability, which does not exhibit the drawback of unsoundness. Unfortunately, intrinsic interpretability can display unwieldy explanation redundancy. Formal explainability represents the alternative to these non-rigorous approaches, with one example being PI-explanations. Unfortunately, PI-explanations also exhibit important drawbacks, the most visible of which is arguably their size. Recently, it has been observed that the (absolute) rigor of PI-explanations can be traded off for a smaller explanation size, by computing the so-called relevant sets. Given some positive {\delta}, a set S of features is {\delta}-relevant if, when the features in S are fixed, the probability of getting the target class exceeds {\delta}. However, even for very simple classifiers, the complexity of computing relevant sets of features is prohibitive, with the decision problem being NPPP-complete for circuit-based classifiers. In contrast with earlier negative results, this paper investigates practical approaches for computing relevant sets for a number of widely used classifiers that include Decision Trees (DTs), Naive Bayes Classifiers (NBCs), and several families of classifiers obtained from propositional languages. Moreover, the paper shows that, in practice, and for these families of classifiers, relevant sets are easy to compute. Furthermore, the experiments confirm that succinct sets of relevant features can be obtained for the families of classifiers considered.
translated by 谷歌翻译
我们在答案集编程(ASP)中,提供了全面的可变实例化或接地的理论基础。在ASP的建模语言的语义上构建,我们在(固定点)运营商方面介绍了接地算法的正式表征。专用良好的运营商扮演了一个主要作用,其相关模型提供了划定接地结果以及随机简化的语义指导。我们地址呈现出一种竞技级逻辑程序,该程序包含递归聚合,从而达到现有ASP建模语言的范围。这伴随着一个普通算法框架,详细说明递归聚集体的接地。给定的算法基本上对应于ASP接地器Gringo中使用的算法。
translated by 谷歌翻译
我们建立了量子算法设计与电路下限之间的第一一般连接。具体来说,让$ \ mathfrak {c} $是一类多项式大小概念,假设$ \ mathfrak {c} $可以在统一分布下的成员查询,错误$ 1/2 - \ gamma $通过时间$ t $量子算法。我们证明如果$ \ gamma ^ 2 \ cdot t \ ll 2 ^ n / n $,则$ \ mathsf {bqe} \ nsubseteq \ mathfrak {c} $,其中$ \ mathsf {bqe} = \ mathsf {bque} [2 ^ {o(n)}] $是$ \ mathsf {bqp} $的指数时间模拟。在$ \ gamma $和$ t $中,此结果是最佳的,因为它不难学习(经典)时间$ t = 2 ^ n $(没有错误) ,或在Quantum Time $ t = \ mathsf {poly}(n)$以傅立叶采样为单位为1/2美元(2 ^ { - n / 2})$。换句话说,即使对这些通用学习算法的边际改善也会导致复杂性理论的主要后果。我们的证明在学习理论,伪随机性和计算复杂性的几个作品上构建,并且至关重要地,在非凡的经典学习算法与由Oliveira和Santhanam建立的电路下限之间的联系(CCC 2017)。扩展他们对量子学习算法的方法,结果产生了重大挑战。为此,我们展示了伪随机发电机如何以通用方式意味着学习到较低的连接,构建针对均匀量子计算的第一个条件伪随机发生器,并扩展了Impagliazzo,JaiSwal的本地列表解码算法。 ,Kabanets和Wigderson(Sicomp 2010)通过微妙的分析到量子电路。我们认为,这些贡献是独立的兴趣,可能会发现其他申请。
translated by 谷歌翻译
我们根据描述逻辑ALC和ALCI介绍并研究了本体论介导的查询的几个近似概念。我们的近似值有两种:我们可以(1)用一种以易访问的本体语言为例,例如ELI或某些TGD,以及(2)用可拖动类的一个替换数据库,例如其treewidth的数据库,由常数界定。我们确定所得近似值的计算复杂性和相对完整性。(几乎)所有这些都将数据复杂性从Conp-Complete降低到Ptime,在某些情况下甚至是固定参数可拖动和线性时间。虽然种类(1)的近似也降低了综合复杂性,但这种近似(2)往往并非如此。在某些情况下,联合复杂性甚至会增加。
translated by 谷歌翻译
We present an approach for the verification of feed-forward neural networks in which all nodes have a piece-wise linear activation function. Such networks are often used in deep learning and have been shown to be hard to verify for modern satisfiability modulo theory (SMT) and integer linear programming (ILP) solvers.The starting point of our approach is the addition of a global linear approximation of the overall network behavior to the verification problem that helps with SMT-like reasoning over the network behavior. We present a specialized verification algorithm that employs this approximation in a search process in which it infers additional node phases for the non-linear nodes in the network from partial node phase assignments, similar to unit propagation in classical SAT solving. We also show how to infer additional conflict clauses and safe node fixtures from the results of the analysis steps performed during the search. The resulting approach is evaluated on collision avoidance and handwritten digit recognition case studies.
translated by 谷歌翻译