冲突驱动的子句学习(CDCL)是解决命题逻辑令人满意问题的非常成功的范式。这种求解器不是简单的深度优先回溯方法,而是以其他条款的形式了解了发生冲突的原因。但是,尽管CDCL求解器取得了巨大的成功,但仍然对以什么方式影响这些求解器的性能有限。考虑到不同的措施,本文非常令人惊讶地证明,从句学习(不摆脱某些条款)不仅可以帮助求解器,而且可能会大大恶化解决方案过程。通过进行广泛的经验分析,我们进一步发现,CDCL求解器的运行时分布是多模式的。这种多模式可以看作是上面描述的恶化现象的原因。同时,这也表明了为什么从条款删除结合条款学习的原因实际上是SAT解决的事实标准,尽管存在这种现象。作为最终贡献,我们表明Weibull混合物分布可以准确描述多模式分布。因此,在基本实例中添加新的子句具有长期运行时间的固有效果。该洞察力提供了一个解释,即为什么忘记条款的技术在CDCL求解器中有用,除了单位传播速度的优化。
translated by 谷歌翻译
算法配置(AC)与对参数化算法最合适的参数配置的自动搜索有关。目前,文献中提出了各种各样的交流问题变体和方法。现有评论没有考虑到AC问题的所有衍生物,也没有提供完整的分类计划。为此,我们引入分类法以分别描述配置方法的交流问题和特征。我们回顾了分类法的镜头中现有的AC文献,概述相关的配置方法的设计选择,对比方法和问题变体相互对立,并描述行业中的AC状态。最后,我们的评论为研究人员和从业人员提供了AC领域的未来研究方向。
translated by 谷歌翻译
组合优化是运营研究和计算机科学领域的一个公认领域。直到最近,它的方法一直集中在孤立地解决问题实例,而忽略了它们通常源于实践中的相关数据分布。但是,近年来,人们对使用机器学习,尤其是图形神经网络(GNN)的兴趣激增,作为组合任务的关键构件,直接作为求解器或通过增强确切的求解器。GNN的电感偏差有效地编码了组合和关系输入,因为它们对排列和对输入稀疏性的意识的不变性。本文介绍了对这个新兴领域的最新主要进步的概念回顾,旨在优化和机器学习研究人员。
translated by 谷歌翻译
优化在离散变量上的高度复杂的成本/能源功能是不同科学学科和行业的许多公开问题的核心。一个主要障碍是在硬实例中的某些变量子集之间的出现,导致临界减慢或集体冻结了已知的随机本地搜索策略。通常需要指数计算工作来解冻这种变量,并探索配置空间的其他看不见的区域。在这里,我们通过开发自适应梯度的策略来介绍一个量子启发的非本球非识别蒙特卡罗(NMC)算法,可以有效地学习成本函数的关键实例的几何特征。该信息随行使用,以构造空间不均匀的热波动,用于以各种长度尺度集体未填充变量,规避昂贵的勘探与开发权衡。我们将算法应用于两个最具挑战性的组合优化问题:随机k可满足(K-SAT)附近计算阶段转换和二次分配问题(QAP)。我们在专业的确定性求解器和通用随机求解器上观察到显着的加速和鲁棒性。特别是,对于90%的随机4-SAT实例,我们发现了最佳专用确定性算法无法访问的解决方案,该算法(SP)具有最强的10%实例的解决方案质量的大小提高。我们还通过最先进的通用随机求解器(APT)显示出在最先进的通用随机求解器(APT)上的时间到溶液的两个数量级改善。
translated by 谷歌翻译
We present a way to create small yet difficult model counting instances. Our generator is highly parameterizable: the number of variables of the instances it produces, as well as their number of clauses and the number of literals in each clause, can all be set to any value. Our instances have been tested on state of the art model counters, against other difficult model counting instances, in the Model Counting Competition. The smallest unsolved instances of the competition, both in terms of number of variables and number of clauses, were ours. We also observe a peak of difficulty when fixing the number of variables and varying the number of clauses, in both random instances and instances built by our generator. Using these results, we predict the parameter values for which the hardest to count instances will occur.
translated by 谷歌翻译
大多数-AT是确定联合正常形式(CNF)中输入$ N $的最低价公式的问题至少为2 ^ {n-1} $令人满意的作业。在对概率规划和推论复杂性的各种AI社区中,广泛研究了多数饱和问题。虽然大多数饱满为期40多年来,但自然变体的复杂性保持开放:大多数 - $ k $ SAT,其中输入CNF公式仅限于最多$ k $的子句宽度。我们证明,每辆$ k $,大多数 - $ k $ sat是在p的。事实上,对于任何正整数$ k $和ratic $ \ rho \ in(0,1)$ in(0,1)$与有界分比者,我们给出了算法这可以确定给定的$ k $ -cnf是否至少有$ \ rho \ cdot 2 ^ n $令人满意的分配,在确定性线性时间(而先前的最着名的算法在指数时间中运行)。我们的算法对计算复杂性和推理的复杂性具有有趣的积极影响,显着降低了相关问题的已知复杂性,例如E-Maj-$ K $ Sat和Maj-Maj- $ K $ Sat。在我们的方法中,通过提取在$ k $ -cnf的相应设置系统中发现的向日葵,可以通过提取向日葵来解决阈值计数问题的有效方法。我们还表明,大多数 - $ k $ sat的易腐烂性有些脆弱。对于密切相关的gtmajority-sat问题(我们询问给定公式是否超过2 ^ {n-1} $满足分配),这已知是pp-cleanting的,我们表明gtmajority-$ k $ sat在p for $ k \ le 3 $,但为$ k \ geq 4 $完成np-cleante。这些结果是违反直觉的,因为这些问题的“自然”分类将是PP完整性,因为GTMAJority的复杂性存在显着差异 - $ k $ SAT和MOSTION- $ K $ SAT为所有$ k \ ge 4 $。
translated by 谷歌翻译
尽管实用的求解器在各种NP完整域中取得了成功,例如SAT和CSP以及使用深度强化学习来解决诸如GO之类的两人游戏,但某些类别的Pspace-Hard计划问题仍然遥不可及。由于硬实例的指数搜索空间,即使是精心设计的域专用求解器也可能会迅速失败。结合了传统搜索方法的最新作品,例如最佳优先搜索和蒙特卡洛树搜索,以及深度神经网络(DNN)的启发式方法,已经显示出有希望的进步,并且可以解决超出专业求解器以外的大量艰苦计划实例。为了更好地理解这些方法为何起作用,我们研究了基于DNN的最佳优先搜索的政策和价值网络的相互作用,并展示了该策略网络的惊人有效性,并通过价值网络进一步增强了价值网络,作为指导启发式的启发式启发式程序。搜索。为了进一步理解现象,我们研究了搜索算法的成本分布,发现索科巴实例可以具有重尾的运行时分布,左侧和右侧都有尾巴。特别是,我们首次展示了\ textit {左尾巴}的存在,并提出了一个抽象的树模型,可以从经验上解释这些尾巴的外观。该实验表明,政策网络是一种强大的启发式指导搜索的关键作用,这可以通过避免探索成倍的尺寸的子树来导致左尾部具有多项式缩放。我们的结果还证明了与传统组合求解器中广泛使用的随机重新启动的重要性,用于避免左和右重尾巴的基于DNN的搜索方法。
translated by 谷歌翻译
命题模型计数或#SAT是计算布尔公式满足分配数量的问题。来自不同应用领域的许多问题,包括许多离散的概率推理问题,可以将#SAT求解器解决的模型计数问题转化为模型计数问题。但是,确切的#sat求解器通常无法扩展到工业规模实例。在本文中,我们提出了Neuro#,这是一种学习分支启发式方法,以提高特定问题家族中的实例的精确#sat求解器的性能。我们通过实验表明,我们的方法减少了类似分布的持有实例的步骤,并将其推广到同一问题家族的更大实例。它能够在具有截然不同的结构的许多不同问题家族上实现这些结果。除了步骤计数的改进外,Neuro#还可以在某些问题家族的较大实例上在较大的实例上实现壁式锁定速度的订单,尽管开头查询了模型。
translated by 谷歌翻译
我们提出了一个通用图形神经网络体系结构,可以作为任何约束满意度问题(CSP)作为末端2端搜索启发式训练。我们的体系结构可以通过政策梯度下降进行无监督的培训,以纯粹的数据驱动方式为任何CSP生成问题的特定启发式方法。该方法基于CSP的新型图表,既是通用又紧凑的,并且使我们能够使用一个GNN处理所有可能的CSP实例,而不管有限的Arity,关系或域大小。与以前的基于RL的方法不同,我们在全局搜索动作空间上运行,并允许我们的GNN在随机搜索的每个步骤中修改任何数量的变量。这使我们的方法能够正确利用GNN的固有并行性。我们进行了彻底的经验评估,从随机数据(包括图形着色,Maxcut,3-SAT和Max-K-Sat)中学习启发式和重要的CSP。我们的方法表现优于先验的神经组合优化的方法。它可以在测试实例上与常规搜索启发式竞争,甚至可以改善几个数量级,结构上比训练中看到的数量级更为复杂。
translated by 谷歌翻译
命题满足(SAT)是一个NP完整的问题,它影响了许多研究领域,例如计划,验证和安全性。主流现代SAT求解器基于冲突驱动的子句学习(CDCL)算法。最近的工作旨在通过图神经网络(GNNS)产生的预测来改善其可变分支启发式方法来增强CDCL SAT求解器。但是,到目前为止,这种方法要么尚未使解决方案更有效,要么需要在线访问大量的GPU资源。为了使GNN改进实用,本文提出了一种称为Neurocomb的方法,该方法以两个见解为基础:(1)重要变量和条款的预测可以与动态分支相结合,为更有效的混合分支策略,(2)它是(2)它是足以在SAT解决开始之前仅查询神经模型一次。 NeuroComb被实施,以增强称为Minisat的经典CDCL求解器,以及最新的CDCL求解器,称为葡萄糖。结果,它允许Minisat在最近的SATCOMP-2021竞争问题设置中解决11%和葡萄糖更多的问题,仅计算资源需求只有一个GPU。因此,NeuroComb是通过机器学习改善SAT解决的有效和实用方法。
translated by 谷歌翻译
MD4 and MD5 are seminal cryptographic hash functions proposed in early 1990s. MD4 consists of 48 steps and produces a 128-bit hash given a message of arbitrary finite size. MD5 is a more secure 64-step extension of MD4. Both MD4 and MD5 are vulnerable to practical collision attacks, yet it is still not realistic to invert them, i.e. to find a message given a hash. In 2007, the 39-step version of MD4 was inverted via reducing to SAT and applying a CDCL solver along with the so-called Dobbertin's constraints. As for MD5, in 2012 its 28-step version was inverted via a CDCL solver for one specified hash without adding any additional constraints. In this study, Cube-and-Conquer (a combination of CDCL and lookahead) is applied to invert step-reduced versions of MD4 and MD5. For this purpose, two algorithms are proposed. The first one generates inversion problems for MD4 by gradually modifying the Dobbertin's constraints. The second algorithm tries the cubing phase of Cube-and-Conquer with different cutoff thresholds to find the one with minimal runtime estimation of the conquer phase. This algorithm operates in two modes: (i) estimating the hardness of an arbitrary given formula; (ii) incomplete SAT-solving of a given satisfiable formula. While the first algorithm is focused on inverting step-reduced MD4, the second one is not area-specific and so is applicable to a variety of classes of hard SAT instances. In this study, for the first time in history, 40-, 41-, 42-, and 43-step MD4 are inverted via the first algorithm and the estimating mode of the second algorithm. 28-step MD5 is inverted for four hashes via the incomplete SAT-solving mode of the second algorithm. For three hashes out of them this is done for the first time.
translated by 谷歌翻译
即使机器学习算法已经在数据科学中发挥了重要作用,但许多当前方法对输入数据提出了不现实的假设。由于不兼容的数据格式,或数据集中的异质,分层或完全缺少的数据片段,因此很难应用此类方法。作为解决方案,我们提出了一个用于样本表示,模型定义和培训的多功能,统一的框架,称为“ Hmill”。我们深入审查框架构建和扩展的机器学习的多个范围范式。从理论上讲,为HMILL的关键组件的设计合理,我们将通用近似定理的扩展显示到框架中实现的模型所实现的所有功能的集合。本文还包含有关我们实施中技术和绩效改进的详细讨论,该讨论将在MIT许可下发布供下载。该框架的主要资产是其灵活性,它可以通过相同的工具对不同的现实世界数据源进行建模。除了单独观察到每个对象的一组属性的标准设置外,我们解释了如何在框架中实现表示整个对象系统的图表中的消息推断。为了支持我们的主张,我们使用框架解决了网络安全域的三个不同问题。第一种用例涉及来自原始网络观察结果的IoT设备识别。在第二个问题中,我们研究了如何使用以有向图表示的操作系统的快照可以对恶意二进制文件进行分类。最后提供的示例是通过网络中实体之间建模域黑名单扩展的任务。在所有三个问题中,基于建议的框架的解决方案可实现与专业方法相当的性能。
translated by 谷歌翻译
Posibilistic Logic是处理不确定和部分不一致信息的最扩展方法。关于正常形式,可能性推理的进步大多专注于字幕形式。然而,现实世界问题的编码通常导致非人(NC)公式和NC-To-Clausal翻译,产生严重的缺点,严重限制了字符串推理的实际表现。因此,通过计算其原始NC形式的公式,我们提出了几种贡献,表明可能在可能的非字词推理中也是可能的显着进展。 {\ em首先,我们定义了{\ em possibilistic over非词素知识库,}或$ \ mathcal {\ overline {h}} _ \ sigma $的类别,其中包括类:可能主义的喇叭和命题角 - NC。 $ \ mathcal {\ overline {h}} _ \ sigma $被显示为标准喇叭类的一种NC类似的。 {\ em hightly},我们定义{\ em possibilistic非字词单元分辨率,}或$ \ mathcal {u} _ \ sigma $,并证明$ \ mathcal {u} _ \ sigma $正确计算不一致程度$ \ mathcal {\ overline {h}} _ \ sigma $成员。 $ \ Mathcal {Ur} _ \ \ Sigma $之前未提出,并以人为人的方式制定,这会让其理解,正式证明和未来延伸到非人类决议。 {\ em第三},我们证明计算$ \ mathcal {\ overline {h}} _ \ sigma $成员的不一致程度是多项式时间。虽然可能存在于可能存在的逻辑中的贸易课程,但所有这些都是字符串,因此,$ \ mathcal {\ overline {h}} _ \ sigma $ of to是可能的主要推理中的第一个特征的多项式非锁友类。
translated by 谷歌翻译
We review clustering as an analysis tool and the underlying concepts from an introductory perspective. What is clustering and how can clusterings be realised programmatically? How can data be represented and prepared for a clustering task? And how can clustering results be validated? Connectivity-based versus prototype-based approaches are reflected in the context of several popular methods: single-linkage, spectral embedding, k-means, and Gaussian mixtures are discussed as well as the density-based protocols (H)DBSCAN, Jarvis-Patrick, CommonNN, and density-peaks.
translated by 谷歌翻译
We present the Neural Satisfiability Network (NSNet), a general neural framework that models satisfiability problems as probabilistic inference and meanwhile exhibits proper explainability. Inspired by the Belief Propagation (BP), NSNet uses a novel graph neural network (GNN) to parameterize BP in the latent space, where its hidden representations maintain the same probabilistic interpretation as BP. NSNet can be flexibly configured to solve both SAT and #SAT problems by applying different learning objectives. For SAT, instead of directly predicting a satisfying assignment, NSNet performs marginal inference among all satisfying solutions, which we empirically find is more feasible for neural networks to learn. With the estimated marginals, a satisfying assignment can be efficiently generated by rounding and executing a stochastic local search. For #SAT, NSNet performs approximate model counting by learning the Bethe approximation of the partition function. Our evaluations show that NSNet achieves competitive results in terms of inference accuracy and time efficiency on multiple SAT and #SAT datasets.
translated by 谷歌翻译
域特异性启发式方法是有效解决组合问题的必不可少的技术。当前将特定于域的启发式方法与答案集编程(ASP)集成的方法在处理基于部分分配的非单调指定的启发式方法时,这是不令人满意的。例如,在挑选尚未放入垃圾箱中的物品时,这种启发式方法经常发生。因此,我们介绍了ASP中域特异性启发式方法声明性规范的新颖语法和语义。我们的方法支持启发式陈述,依赖于解决过程中所维持的部分任务,这是不可能的。我们在Alpha中提供了一种实现,该实现使Alpha成为第一个支持声明指定的域特定启发式方法的懒惰的ASP系统。使用两个实际的示例域来证明我们的提议的好处。此外,我们使用我们的方法用A*实施知情},该搜索首次在ASP中解决。 A*应用于两个进一步的搜索问题。实验证实,结合懒惰的ASP解决方案和我们的新型启发式方法对于解决工业大小的问题至关重要。
translated by 谷歌翻译
象征性的AI社区越来越多地试图在神经符号结构中接受机器学习,但由于文化障碍,仍在挣扎。为了打破障碍,这份相当有思想的个人备忘录试图解释和纠正统计,机器学习和深入学习的惯例,从局外人的角度进行深入学习。它提供了一个分步协议,用于设计一个机器学习系统,该系统满足符号AI社区认真对待所必需的最低理论保证,即,它讨论“在哪些条件下,我们可以停止担心和接受统计机器学习。 “一些亮点:大多数教科书都是为计划专门研究STAT/ML/DL的人编写的,应该接受术语。该备忘录适用于经验丰富的象征研究人员,他们听到了很多嗡嗡声,但仍然不确定和持怀疑态度。有关STAT/ML/DL的信息目前太分散或嘈杂而无法投资。此备忘录优先考虑紧凑性,并特别注意与象征性范式相互共鸣的概念。我希望这份备忘录能节省时间。它优先考虑一般数学建模,并且不讨论任何特定的函数近似器,例如神经网络(NNS),SVMS,决策树等。它可以对校正开放。将此备忘录视为与博客文章相似的内容,采用有关Arxiv的论文的形式。
translated by 谷歌翻译
We present an approach for the verification of feed-forward neural networks in which all nodes have a piece-wise linear activation function. Such networks are often used in deep learning and have been shown to be hard to verify for modern satisfiability modulo theory (SMT) and integer linear programming (ILP) solvers.The starting point of our approach is the addition of a global linear approximation of the overall network behavior to the verification problem that helps with SMT-like reasoning over the network behavior. We present a specialized verification algorithm that employs this approximation in a search process in which it infers additional node phases for the non-linear nodes in the network from partial node phase assignments, similar to unit propagation in classical SAT solving. We also show how to infer additional conflict clauses and safe node fixtures from the results of the analysis steps performed during the search. The resulting approach is evaluated on collision avoidance and handwritten digit recognition case studies.
translated by 谷歌翻译
代表SAT实例的图表的视觉布局可以突出显示SAT实例的社区结构。SAT实例的社区结构与实例硬度和已知条款质量启发式方法有关。我们的工具SATVIZ使用可变交互图和强制定向的布局算法可视化CNF公式。借助SATVIZ,可以对条款证明进行动画,以连续突出最近学习子句的移动窗口中发生的变量。如果需要,Satviz还可以使用调整后的边缘权重创建可变交互图的新布局。在本文中,我们描述了Satviz的结构和特征集。我们还提出了一些使用Satviz创建的有趣的可视化。
translated by 谷歌翻译
Alphazero及其扩展Muzero是使用机器学习技术在国际象棋,GO和其他一些游戏的超人级别上玩的计算机程序。他们仅通过从自我玩法中学习的强化学习才能达到这种水平,除了游戏规则外,没有任何领域知识。适应alphazero中用于解决搜索问题的方法和技术是一个自然的想法。给定搜索问题,如何代表alphazero启发的求解器?这个搜索问题的“解决规则”是什么?我们用简单的求解器和自我还原来描述可能的表示形式,并为满足性问题提供了此类表示的例子。我们还描述了适合搜索问题的蒙特卡洛树搜索版本。
translated by 谷歌翻译