伊瓦玛(Iwama)引入的命中公式是一类不寻常的命题CNF公式。它们的可满足性不仅可以在多项式时间内确定,而且甚至可以以封闭形式计算其模型。这与其他多项式定义类别形成鲜明对比,这些类别通常具有基于回溯和分辨率的算法,并且模型计数仍然很难,例如2-SAT和HORN-SAT。但是,那些基于分辨率的算法通常很容易地暗示着在分辨率复杂性上的上限,这对于达到公式而缺少。击中公式难以解决吗?在本文中,我们采取了第一步,回答这个问题。我们表明,击中公式的分辨率复杂性由Kullmann和Zhao首先研究的所谓不可约合的击球公式主导,这些配方不能由较小的击球公式组成。但是,根据定义,很难构建大型不可理解的击中公式。甚至还不知道是否存在无限的许多。基于我们的理论结果,我们在Nauty软件包之上实施了有效的算法,以列举所有不可约14个条款的不可约束的击中公式。我们还通过将已知的SAT编码用于我们的目的来确定生成的击中公式的确切分辨率复杂性。我们的实验结果表明,击中公式确实很难解决。
translated by 谷歌翻译
大多数-AT是确定联合正常形式(CNF)中输入$ N $的最低价公式的问题至少为2 ^ {n-1} $令人满意的作业。在对概率规划和推论复杂性的各种AI社区中,广泛研究了多数饱和问题。虽然大多数饱满为期40多年来,但自然变体的复杂性保持开放:大多数 - $ k $ SAT,其中输入CNF公式仅限于最多$ k $的子句宽度。我们证明,每辆$ k $,大多数 - $ k $ sat是在p的。事实上,对于任何正整数$ k $和ratic $ \ rho \ in(0,1)$ in(0,1)$与有界分比者,我们给出了算法这可以确定给定的$ k $ -cnf是否至少有$ \ rho \ cdot 2 ^ n $令人满意的分配,在确定性线性时间(而先前的最着名的算法在指数时间中运行)。我们的算法对计算复杂性和推理的复杂性具有有趣的积极影响,显着降低了相关问题的已知复杂性,例如E-Maj-$ K $ Sat和Maj-Maj- $ K $ Sat。在我们的方法中,通过提取在$ k $ -cnf的相应设置系统中发现的向日葵,可以通过提取向日葵来解决阈值计数问题的有效方法。我们还表明,大多数 - $ k $ sat的易腐烂性有些脆弱。对于密切相关的gtmajority-sat问题(我们询问给定公式是否超过2 ^ {n-1} $满足分配),这已知是pp-cleanting的,我们表明gtmajority-$ k $ sat在p for $ k \ le 3 $,但为$ k \ geq 4 $完成np-cleante。这些结果是违反直觉的,因为这些问题的“自然”分类将是PP完整性,因为GTMAJority的复杂性存在显着差异 - $ k $ SAT和MOSTION- $ K $ SAT为所有$ k \ ge 4 $。
translated by 谷歌翻译
在我们生活在深厚的互连世界中,我们周围的各个信息链接域。由于图形数据库包含了数据之间有效的关系,并允许处理和查询这些连接,因此它们正迅速成为支持广泛域和应用程序的流行平台。与关系情况一样,可以预期数据保留了一组完整性约束,这些限制定义了它代表的世界的语义结构。当数据库不满足其完整性约束时,一种可能的方法是搜索确实满足约束(也称为维修)的“类似”数据库。在这项工作中,我们使用基于一组Reg-GXPath表达式作为完整性约束的一致性概念来研究图形数据库的计算子集和超集修复的问题。我们表明,对于Reg-GxPath的积极片段,这些问题承认了多项式时间算法,而语言的全部表达力使它们棘手。
translated by 谷歌翻译
突出非克劳兰(NC)公式的富有表现性比基于氏子型公式的指数更丰富。然而,氏菌效率优于非克劳尿的效率。实际上,后者的一个主要弱点是,虽然喇叭子宫公式以及喇叭算法,对于高效率至关重要,但是已经提出了非符号形式的喇叭状公式。为了克服这种弱点,我们通过将喇叭图案充分提升到NC形式,定义HOLE非字母(HORN-NC)公式的混合类$ \ MATHBB {H_ {NC}}。争论$ \ MATHBB {H_ {NC}} $以及未来的Horn-NC算法,应随着喇叭类的股份效率增加,增加非信用效率。其次,我们:(i)给出$ \ mathbb的紧凑,归纳定义{h_ {nc}} $; (ii)证明了句法$ \ mathbb {h_ {nc}} $ suppups over class,但语义上两个类都是等效的,并且(iii)表征属于$ \ mathbb {h_ {nc}} $的非锁友公式。第三,我们定义了非字词单元分辨率计算,$ ur_ {nc} $,并证明它检查多项式时间$ \ mathbb {h_ {nc}} $的可靠性。这一事实是我们的知识,使$ \ mathbb {h_ {nc}} $中的nc推理中的第一个特征多项式类。最后,我们证明了$ \ mathbb {h_ {nc}} $线性识别,也是严格的是法官和比喇叭类呈指数富裕。我们在NC自动推理中讨论了这一点,例如,可靠性解决,定理证明,逻辑编程等可以直接受益于$ \ mathbb {h_ {nc} $和$ ur_ {nc} $,它作为其被证明属性的副产物,$ \ mathbb { H_ {NC}} $ as作为分析喇叭函数和含义系统的新替代方案。
translated by 谷歌翻译
我们从逻辑和公式大小方面概念化了解释性,在非常一般的环境中给出了许多相关的解释性定义。我们的主要兴趣是所谓的特殊解释问题,旨在解释输入模型中输入公式的真实价值。解释是一个最小尺寸的公式,(1)与输入模型上的输入公式一致,(2)将所涉及的真实价值传输到全球输入公式,即每个模型上。作为一个重要的例子,我们在这种情况下研究了命题逻辑,并表明在多项式层次结构的第二级中,特殊的解释性问题是完整的。我们还将在答案集编程中提供了此问题的实施,并研究了其与解释N-Queens和主导集合问题的答案有关的能力。
translated by 谷歌翻译
Cohn and Umans proposed a framework for developing fast matrix multiplication algorithms based on the embedding computation in certain groups algebras. In subsequent work with Kleinberg and Szegedy, they connected this to the search for combinatorial objects called strong uniquely solvable puzzles (strong USPs). We begin a systematic computer-aided search for these objects. We develop and implement constraint-based algorithms build on reductions to $\mathrm{SAT}$ and $\mathrm{IP}$ to verify that puzzles are strong USPs, and to search for large strong USPs. We produce tight bounds on the maximum size of a strong USP for width $k \le 5$, construct puzzles of small width that are larger than previous work, and improve the upper bounds on strong USP size for $k \le 12$. Although our work only deals with puzzles of small-constant width, the strong USPs we find imply matrix multiplication algorithms that run in $O(n^\omega)$ time with exponent $\omega \le 2.66$. While our algorithms do not beat the fastest algorithms, our work provides evidence and, perhaps, a path to finding families of strong USPs that imply matrix multiplication algorithms that are more efficient than those currently known.
translated by 谷歌翻译
Posibilistic Logic是处理不确定和部分不一致信息的最扩展方法。关于正常形式,可能性推理的进步大多专注于字幕形式。然而,现实世界问题的编码通常导致非人(NC)公式和NC-To-Clausal翻译,产生严重的缺点,严重限制了字符串推理的实际表现。因此,通过计算其原始NC形式的公式,我们提出了几种贡献,表明可能在可能的非字词推理中也是可能的显着进展。 {\ em首先,我们定义了{\ em possibilistic over非词素知识库,}或$ \ mathcal {\ overline {h}} _ \ sigma $的类别,其中包括类:可能主义的喇叭和命题角 - NC。 $ \ mathcal {\ overline {h}} _ \ sigma $被显示为标准喇叭类的一种NC类似的。 {\ em hightly},我们定义{\ em possibilistic非字词单元分辨率,}或$ \ mathcal {u} _ \ sigma $,并证明$ \ mathcal {u} _ \ sigma $正确计算不一致程度$ \ mathcal {\ overline {h}} _ \ sigma $成员。 $ \ Mathcal {Ur} _ \ \ Sigma $之前未提出,并以人为人的方式制定,这会让其理解,正式证明和未来延伸到非人类决议。 {\ em第三},我们证明计算$ \ mathcal {\ overline {h}} _ \ sigma $成员的不一致程度是多项式时间。虽然可能存在于可能存在的逻辑中的贸易课程,但所有这些都是字符串,因此,$ \ mathcal {\ overline {h}} _ \ sigma $ of to是可能的主要推理中的第一个特征的多项式非锁友类。
translated by 谷歌翻译
在概念学习,数据库查询的反向工程,生成参考表达式以及知识图中的实体比较之类的应用中,找到以标记数据项形式分开的逻辑公式,该公式分开以标记数据项形式给出的正面和负面示例。在本文中,我们研究了存在本体论的数据的分离公式的存在。对于本体语言和分离语言,我们都专注于一阶逻辑及其以下重要片段:描述逻辑$ \ Mathcal {alci} $,受保护的片段,两变量的片段和受保护的否定片段。为了分离,我们还考虑(工会)连接性查询。我们考虑了几种可分离性,这些可分离性在负面示例的治疗中有所不同,以及他们是否承认使用其他辅助符号来实现分离。我们的主要结果是(所有变体)可分离性,不同语言的分离能力的比较以及确定可分离性的计算复杂性的研究。
translated by 谷歌翻译
结构分解方法,例如普遍的高树木分解,已成功用于解决约束满意度问题(CSP)。由于可以重复使用分解以求解具有相同约束范围的CSP,因此即使计算本身很难,将资源投资于计算良好的分解是有益的。不幸的是,即使示波器仅略有变化,当前方法也需要计算全新的分解。在本文中,我们迈出了解决CSP $ P $分解的问题的第一步,以使其成为由$ P $修改产生的新CSP $ P'$的有效分解。即使从理论上讲问题很难,我们还是提出并实施了一个有效更新GHD的框架。我们算法的实验评估强烈提出了实际适用性。
translated by 谷歌翻译
我们根据描述逻辑ALC和ALCI介绍并研究了本体论介导的查询的几个近似概念。我们的近似值有两种:我们可以(1)用一种以易访问的本体语言为例,例如ELI或某些TGD,以及(2)用可拖动类的一个替换数据库,例如其treewidth的数据库,由常数界定。我们确定所得近似值的计算复杂性和相对完整性。(几乎)所有这些都将数据复杂性从Conp-Complete降低到Ptime,在某些情况下甚至是固定参数可拖动和线性时间。虽然种类(1)的近似也降低了综合复杂性,但这种近似(2)往往并非如此。在某些情况下,联合复杂性甚至会增加。
translated by 谷歌翻译
连续约束满意度问题(CCSP)是一个约束满意度问题(CSP),其间隔域$ u \ subset \ mathbb {r} $。我们进行了一项系统的研究,以对CCSP进行分类,这些CCSP已完成现实的存在理论,即ER完整。为了定义该类别,我们首先考虑ETR问题,该问题也代表了真实的存在理论。在此问题的情况下,我们给出了$ \ compant x_1,\ ldots,x_n \ in \ mathbb {r}的某个句子:\ phi(x_1,\ ldots,x_n)$,其中$ \ phi $ is由符号$ \ {0、1, +,\ cdot,\ geq,>,\ wedge,\ vee,\ neg \} $组成的符号符号的公式正确。 。现在,ER是所有问题的家族,这些家族允许多项式时间降低到ETR。众所周知,np $ \ subseteq $ er $ \ subseteq $ pspace。我们将注意力限制在CCSP上,并具有附加限制($ x + y = z $)和其他一些轻度的技术状况。以前,已经显示出乘法约束($ x \ cdot y = z $),平方约束($ x^2 = y $)或反转约束($ x \ cdot y = 1 $)足以建立ER-完整性。如下所示,我们以最大的平等约束来扩展这一点。我们表明,CCSP(具有附加限制和其他轻度技术状况)具有任何一个表现良好的弯曲平等约束($ f(x,y)= 0 $)的CCSP是ER的曲线限制($ F(x,y)= 0 $)。我们将结果进一步扩展到不平等约束。我们表明,任何行为良好的凸出弯曲且行为良好的凹陷弯曲的不平等约束($ f(x,y)\ geq 0 $ and $ g(x,x,y)\ geq 0 $)暗示着班级的ER完整性这种CCSP。
translated by 谷歌翻译
最近已经提出了几个查询和分数来解释对ML模型的个人预测。鉴于ML型号的灵活,可靠和易于应用的可解释性方法,我们预见了需要开发声明语言以自然地指定不同的解释性查询。我们以原则的方式通过源于逻辑,称为箔,允许表达许多简单但重要的解释性查询,并且可以作为更具表现力解释性语言的核心来实现这一语言。我们研究箔片查询的两类ML模型的计算复杂性经常被视为容易解释:决策树和OBDD。由于ML模型的可能输入的数量是尺寸的指数,因此箔评估问题的易易性是精细的,但是可以通过限制模型的结构或正在评估的箔片段来实现。我们还以高级声明语言包装的箔片的原型实施,并执行实验,表明可以在实践中使用这种语言。
translated by 谷歌翻译
本文探讨了关系特级逻辑,这是一个与推理古典三段论的扩展中关系相关的逻辑系统系列。这些都是可判定的逻辑系统。我们证明了基于关系特级逻辑的自然亚家族的完整性定理和复杂性,由构造函数参加术语和句子。
translated by 谷歌翻译
我们连接学习算法和算法自动化证明搜索在命题证明系统中:每一种充分强大,表现良好的命题证明系统$ P $,我们证明以下陈述相当,1.可提供学习:$ P $证明p -size电路通过统一分布的子尺寸尺寸电路与成员资格查询进行了学习。 2.可提供自动性:$ P $证明$ P $可通过非均匀电路在表达P尺寸电路下限的命题公式上自动。在这里,如果I.-III,则$ P $足够强大和表现良好。持有:I. $ P $ P-SIMULATES JE \ v {R} \'ABEK的系统$ WF $(通过调节弱鸽子原则加强扩展弗雷格系统$ EF $); II。 $ P $满足标准证明系统的一些基本属性,P-SIMUTED $ WF $; III。 $ P $可有效地证明一些布尔函数$ H $ H $ H $难以平均为子增长尺寸电路。例如,如果III。保持$ p = wf $,然后项目1和2等同于$ p = wf $。如果在Ne \ Cop Cone $的函数$ H \ IN,这是平均尺寸为2 ^ {n / 4} $的电路,对于每个足够大的$ n $,那么有一个明确的命题证明系统$ p $满意的属性I.-III。,即物品1和2的等价,以$ p $持有。
translated by 谷歌翻译
K-MEDIAN和K-MEACE是聚类算法的两个最受欢迎的目标。尽管有密集的努力,但对这些目标的近似性很好地了解,特别是在$ \ ell_p $ -metrics中,仍然是一个重大的开放问题。在本文中,我们在$ \ ell_p $ -metrics中显着提高了文献中已知的近似因素的硬度。我们介绍了一个名为Johnson覆盖假说(JCH)的新假设,这大致断言设定系统上的良好的Max K-Coverage问题难以近似于1-1 / e,即使是成员图形设置系统是Johnson图的子图。然后,我们展示了Cohen-Addad和Karthik引入的嵌入技术的概括(Focs'19),JCH意味着K-MEDIAN和K-MERION在$ \ ell_p $ -metrics中的近似结果的近似值的硬度为近距离对于一般指标获得的人。特别地,假设JCH我们表明很难近似K-Meator目标:$ \ Bullet $离散情况:$ \ ell_1 $ 3.94 - $ \ ell_2中的1.73因素为1.73倍$$ - 这分别在UGC下获得了1.56和1.17的先前因子。 $ \ bullet $持续案例:$ \ ell_1 $ 2210 - $ \ ell_2 $的$ \ ell_1 $ 210。$ \ ell_2 $-metric;这在UGC下获得的$ \ ell_2 $的$ \ ell_2 $的先前因子提高了1.07。对于K-Median目标,我们还获得了类似的改进。此外,我们使用Dinure等人的工作证明了JCH的弱版本。 (Sicomp'05)在超图顶点封面上,恢复Cohen-Addad和Karthik(Focs'19 Focs'19)上面的所有结果(近)相同的不可识别因素,但现在在标准的NP $ \ NEQ $ P假设下(代替UGC)。
translated by 谷歌翻译
Deep neural networks have emerged as a widely used and effective means for tackling complex, real-world problems. However, a major obstacle in applying them to safety-critical systems is the great difficulty in providing formal guarantees about their behavior. We present a novel, scalable, and efficient technique for verifying properties of deep neural networks (or providing counter-examples). The technique is based on the simplex method, extended to handle the non-convex Rectified Linear Unit (ReLU ) activation function, which is a crucial ingredient in many modern neural networks. The verification procedure tackles neural networks as a whole, without making any simplifying assumptions. We evaluated our technique on a prototype deep neural network implementation of the next-generation airborne collision avoidance system for unmanned aircraft (ACAS Xu). Results show that our technique can successfully prove properties of networks that are an order of magnitude larger than the largest networks verified using existing methods.
translated by 谷歌翻译
该注释有三个目的:(i)我们提供了一个独立的说明,表明在可能的(PAC)模型中,连接性查询无法有效地学习,从而明确注意这一概念阶级缺乏这一概念的事实,多项式大小的拟合属性,在许多计算学习理论文献中被默认假设的属性;(ii)我们建立了强大的负PAC可学习性结果,该结果适用于许多限制类别的连接性查询(CQ),包括针对广泛的“无循环”概念的无孔CQ;(iii)我们证明CQ可以通过会员查询有效地学习PAC。
translated by 谷歌翻译
最近关于Littmann的报告[Comment。 ACM'21]概述了学术同行评论中勾结环的存在和致命影响。我们介绍和分析了问题周期的审查,该审查旨在找到审查任务,没有以下勾结戒指:一系列审稿人员每次审查下一个审阅者在序列中撰写的文件(与最后审查员审查一篇论文第一个),从而创建一个审查周期,每个审界者都提供了有利的评论。因此,该循环中的所有文件都有很大的接受机会与各自的科学优点无关。我们观察到,使用标准线性编程方法计算的审核分配通常允许许多短审查周期。在消极方面,我们表明,在各种限制性案件中,无期临时审查是NP - 困难(即,当每个作者有资格审查所有论文时,人们想要防止作者互相审查或他们自己的论文或每篇作者何时审查只有一篇论文,只有有资格审查几篇论文)。在积极的方面,除了其他方面,我们表明,在一些现实的设置中,没有任何审查周期的分配总是存在。这一结果也引发了用于计算(加权)自由审查任务的有效启发式,我们在实践中表现出优良的品质。
translated by 谷歌翻译
用于解决众所周知的布尔满意度问题(SAT)的计算机程序,所谓的求解器已有数十年的改善。在解决方案过程中,这些求解器如此之快的原因之一是对求解过程中公式结构属性的隐含用法。这样的结构指标之一是所谓的树宽,它试图测量公式实例与变得容易的距离(类似树)。这项工作着重于基于逻辑的问题和基于树宽的方法和解决方案的工具。这些问题中的许多也与知识表示和推理(KR)以及人工智能(AI)有关。我们提出了一种新型的问题,这是由分解引导(DG)提到的。这种还原类型构成了解决自2004年以来一直开放的有界树宽的量化布尔公式(QBFS)问题的基础。该问题的解决方案随后产生了一种新方法,以证明精确的下限范围用于一系列进一步的形式主义在逻辑,KR和AI中。尽管已建立的下限,但我们还是通过直接使用树宽来实现一种算法来有效地求解SAT的扩展。我们的实施是基于查找实例的抽象,然后在此过程中逐步完善。因此,我们的观察结果证实,树宽是现代求解器设计中应考虑的重要措施。
translated by 谷歌翻译
随机块模型(SBM)是一个随机图模型,其连接不同的顶点组不同。它被广泛用作研究聚类和社区检测的规范模型,并提供了肥沃的基础来研究组合统计和更普遍的数据科学中出现的信息理论和计算权衡。该专着调查了最近在SBM中建立社区检测的基本限制的最新发展,无论是在信息理论和计算方案方面,以及各种恢复要求,例如精确,部分和弱恢复。讨论的主要结果是在Chernoff-Hellinger阈值中进行精确恢复的相转换,Kesten-Stigum阈值弱恢复的相变,最佳的SNR - 单位信息折衷的部分恢复以及信息理论和信息理论之间的差距计算阈值。该专着给出了在寻求限制时开发的主要算法的原则推导,特别是通过绘制绘制,半定义编程,(线性化)信念传播,经典/非背带频谱和图形供电。还讨论了其他块模型的扩展,例如几何模型和一些开放问题。
translated by 谷歌翻译