部分MaxSAT(PMS)和加权部分MaxSAT(WPMS)都是MaxSAT典型组合问题的实用概括。在这项工作中,我们提出了一种有效的远视概率采样的基于本地搜索算法,称为FPS,用于解决这两个问题,表示为(W)PMS。 FPS算法替换了每个迭代步骤翻转单个变量的机制,该步骤广泛用于拟议的远视本地搜索策略,并提供更高质量的本地最佳解决方案。远视策略采用概率采样技术,允许该算法广泛有效地寻找。以这种方式,FPS可以提供​​更多更好的搜索方向并提高性能而不降低效率。关于最近四年的MaxSAT评估的不完整轨迹的所有基准的广泛实验表明,我们的方法显着优于Satlike3.0,最先进的本地搜索算法,用于解决PMS和WPMS问题。我们进一步与Satlike-C的扩展求解器进行比较,这是最近MaxSAT评估中不完全轨道的四个(PMS和WPMS类别相关的三类类别中的三个类别的冠军(MSE2021 )。我们用拟议的远视采样本地搜索方法替换Satlike-C中的本地搜索组件,并且所产生的求解器FPS-C也优于Satlike-C来解决PMS和WPMS问题。
translated by 谷歌翻译
我们解决了部分MaxSat(PMS)和加权PMS(WPM),这是MaxSat问题的两个实际概括,并为这些问题(称为BandMaxSat)提出了一种局部搜索算法,该算法应用了多臂Bantit模型来指导搜索方向。我们方法中的匪徒与输入(w)pms实例中的所有软子句相关联。每个手臂对应于软子句。 Bandit模型可以通过选择要在当前步骤中满足的软子句,即选择要拉的臂来帮助BandmaxSat选择一个良好的方向以逃脱本地Optima。我们进一步提出了一种初始化方法(w)PMS,在生产初始解决方案时优先考虑单元和二进制条款。广泛的实验表明,BandMaxSat显着优于最先进的(W)PMS本地搜索算法SATLIKE3.0。具体而言,BandMaxSat获得更好结果的实例数量大约是Satlike3.0获得的两倍。此外,我们将bandmaxsat与完整的求解器tt-open-wbo-inc相结合。最终的求解器bandmaxsat-c还胜过一些最好的最新完整(W)PMS求解器,包括satlike-c,loandra和tt-open-wbo-inc。
translated by 谷歌翻译
Partial MaxSAT (PMS) and Weighted PMS (WPMS) are two practical generalizations of the MaxSAT problem. In this paper, we propose a local search algorithm for these problems, called BandHS, which applies two multi-armed bandits to guide the search directions when escaping local optima. One bandit is combined with all the soft clauses to help the algorithm select to satisfy appropriate soft clauses, and the other bandit with all the literals in hard clauses to help the algorithm select appropriate literals to satisfy the hard clauses. These two bandits can improve the algorithm's search ability in both feasible and infeasible solution spaces. We further propose an initialization method for (W)PMS that prioritizes both unit and binary clauses when producing the initial solutions. Extensive experiments demonstrate the excellent performance and generalization capability of our proposed methods, that greatly boost the state-of-the-art local search algorithm, SATLike3.0, and the state-of-the-art SAT-based incomplete solver, NuWLS-c.
translated by 谷歌翻译
We present the Neural Satisfiability Network (NSNet), a general neural framework that models satisfiability problems as probabilistic inference and meanwhile exhibits proper explainability. Inspired by the Belief Propagation (BP), NSNet uses a novel graph neural network (GNN) to parameterize BP in the latent space, where its hidden representations maintain the same probabilistic interpretation as BP. NSNet can be flexibly configured to solve both SAT and #SAT problems by applying different learning objectives. For SAT, instead of directly predicting a satisfying assignment, NSNet performs marginal inference among all satisfying solutions, which we empirically find is more feasible for neural networks to learn. With the estimated marginals, a satisfying assignment can be efficiently generated by rounding and executing a stochastic local search. For #SAT, NSNet performs approximate model counting by learning the Bethe approximation of the partition function. Our evaluations show that NSNet achieves competitive results in terms of inference accuracy and time efficiency on multiple SAT and #SAT datasets.
translated by 谷歌翻译
我们提出了一种改善机器学习(ML)决策树(DTS)的准确性拦截权衡的方法。特别是,我们将最大的满足技术应用于计算最低纯DTS(MPDT)。我们提高了先前方法的运行时,并证明这些MPDT可以优于ML Framework Sklearn生成的DTS的准确性。
translated by 谷歌翻译
We present a way to create small yet difficult model counting instances. Our generator is highly parameterizable: the number of variables of the instances it produces, as well as their number of clauses and the number of literals in each clause, can all be set to any value. Our instances have been tested on state of the art model counters, against other difficult model counting instances, in the Model Counting Competition. The smallest unsolved instances of the competition, both in terms of number of variables and number of clauses, were ours. We also observe a peak of difficulty when fixing the number of variables and varying the number of clauses, in both random instances and instances built by our generator. Using these results, we predict the parameter values for which the hardest to count instances will occur.
translated by 谷歌翻译
命题模型计数或#SAT是计算布尔公式满足分配数量的问题。来自不同应用领域的许多问题,包括许多离散的概率推理问题,可以将#SAT求解器解决的模型计数问题转化为模型计数问题。但是,确切的#sat求解器通常无法扩展到工业规模实例。在本文中,我们提出了Neuro#,这是一种学习分支启发式方法,以提高特定问题家族中的实例的精确#sat求解器的性能。我们通过实验表明,我们的方法减少了类似分布的持有实例的步骤,并将其推广到同一问题家族的更大实例。它能够在具有截然不同的结构的许多不同问题家族上实现这些结果。除了步骤计数的改进外,Neuro#还可以在某些问题家族的较大实例上在较大的实例上实现壁式锁定速度的订单,尽管开头查询了模型。
translated by 谷歌翻译
我们提出了一种称为钢筋混合遗传算法(RHGA)的新型方法,用于解决着名的NP-Hard Travel推销员问题(TSP)。具体地,我们将加强学习技术与众所周知的边缘组装交叉遗传算法(EAX-GA)和Lin-Kernighan-Helsgaun(LKH)本地搜索启发式组合。借助拟议的混合机制,EAX-GA的遗传演进和LKH的本地搜索可以促进彼此的性能。基于Q学习的加强学习技术进一步促进了混合遗传算法。在138众名知名度和广泛使用的TSP基准测试中的实验结果与1,000至85,900的城市数量呈现出rhGA的优异性能,显着优于EAX-GA和LKH。
translated by 谷歌翻译
随着深度学习技术的快速发展,各种最近的工作试图应用图形神经网络(GNN)来解决诸如布尔满足(SAT)之类的NP硬问题,这表明了桥接机器学习与象征性差距的潜力。然而,GNN预测的解决方案的质量并未在文献中进行很好地研究。在本文中,我们研究了GNNS在学习中解决最大可满足性(MaxSAT)问题的能力,从理论和实践角度来看。我们构建了两种GNN模型来学习来自基准的MaxSAT实例的解决方案,并显示GNN通过实验评估解决MaxSAT问题的有吸引力。我们还基于算法对准理论,我们还提出了GNNS可以在一定程度上学会解决MaxSAT问题的影响的理论解释。
translated by 谷歌翻译
Alphazero及其扩展Muzero是使用机器学习技术在国际象棋,GO和其他一些游戏的超人级别上玩的计算机程序。他们仅通过从自我玩法中学习的强化学习才能达到这种水平,除了游戏规则外,没有任何领域知识。适应alphazero中用于解决搜索问题的方法和技术是一个自然的想法。给定搜索问题,如何代表alphazero启发的求解器?这个搜索问题的“解决规则”是什么?我们用简单的求解器和自我还原来描述可能的表示形式,并为满足性问题提供了此类表示的例子。我们还描述了适合搜索问题的蒙特卡洛树搜索版本。
translated by 谷歌翻译
我们提出了一个通用图形神经网络体系结构,可以作为任何约束满意度问题(CSP)作为末端2端搜索启发式训练。我们的体系结构可以通过政策梯度下降进行无监督的培训,以纯粹的数据驱动方式为任何CSP生成问题的特定启发式方法。该方法基于CSP的新型图表,既是通用又紧凑的,并且使我们能够使用一个GNN处理所有可能的CSP实例,而不管有限的Arity,关系或域大小。与以前的基于RL的方法不同,我们在全局搜索动作空间上运行,并允许我们的GNN在随机搜索的每个步骤中修改任何数量的变量。这使我们的方法能够正确利用GNN的固有并行性。我们进行了彻底的经验评估,从随机数据(包括图形着色,Maxcut,3-SAT和Max-K-Sat)中学习启发式和重要的CSP。我们的方法表现优于先验的神经组合优化的方法。它可以在测试实例上与常规搜索启发式竞争,甚至可以改善几个数量级,结构上比训练中看到的数量级更为复杂。
translated by 谷歌翻译
旅行推销员问题(TSP)是许多实用变体的经典NP-HARD组合优化问题。 Lin-Kernighan-Helsgaun(LKH)算法是TSP的最先进的本地搜索算法之一,LKH-3是LKH的强大扩展,可以解决许多TSP变体。 LKH和LKH-3都将一个候选人与每个城市相关联,以提高算法效率,并具有两种不同的方法,称为$ \ alpha $ - 计算和Popmusic,以决定候选人集。在这项工作中,我们首先提出了一种可变策略加强LKH(VSR-LKH)算法,该算法将三种强化学习方法(Q-Learning,SARSA和Monte Carlo)与LKH算法结合在一起,以解决TSP。我们进一步提出了一种称为VSR-LKH-3的新算法,该算法将可变策略强化学习方法与LKH-3结合在一起,用于典型的TSP变体,包括带有时间窗口(TSPTW)和彩色TSP(CTSP)的TSP。所提出的算法取代了LKH和LKH-3中的不灵活的遍历操作,并让算法学会通过增强学习在每个搜索步骤中做出选择。 LKH和LKH-3都具有$ \ alpha $量或Popmusic方法,我们的方法都可以显着改善。具体而言,对236个公共和广泛使用的TSP基准的经验结果具有多达85,900个城市,证明了VSR-LKH的出色表现,扩展的VSR-LKH-3也显着超过了TSPTW和TSPTW和TSPTW和TSPTW的最新启发式方法CTSP。
translated by 谷歌翻译
命题满足(SAT)是一个NP完整的问题,它影响了许多研究领域,例如计划,验证和安全性。主流现代SAT求解器基于冲突驱动的子句学习(CDCL)算法。最近的工作旨在通过图神经网络(GNNS)产生的预测来改善其可变分支启发式方法来增强CDCL SAT求解器。但是,到目前为止,这种方法要么尚未使解决方案更有效,要么需要在线访问大量的GPU资源。为了使GNN改进实用,本文提出了一种称为Neurocomb的方法,该方法以两个见解为基础:(1)重要变量和条款的预测可以与动态分支相结合,为更有效的混合分支策略,(2)它是(2)它是足以在SAT解决开始之前仅查询神经模型一次。 NeuroComb被实施,以增强称为Minisat的经典CDCL求解器,以及最新的CDCL求解器,称为葡萄糖。结果,它允许Minisat在最近的SATCOMP-2021竞争问题设置中解决11%和葡萄糖更多的问题,仅计算资源需求只有一个GPU。因此,NeuroComb是通过机器学习改善SAT解决的有效和实用方法。
translated by 谷歌翻译
MD4 and MD5 are seminal cryptographic hash functions proposed in early 1990s. MD4 consists of 48 steps and produces a 128-bit hash given a message of arbitrary finite size. MD5 is a more secure 64-step extension of MD4. Both MD4 and MD5 are vulnerable to practical collision attacks, yet it is still not realistic to invert them, i.e. to find a message given a hash. In 2007, the 39-step version of MD4 was inverted via reducing to SAT and applying a CDCL solver along with the so-called Dobbertin's constraints. As for MD5, in 2012 its 28-step version was inverted via a CDCL solver for one specified hash without adding any additional constraints. In this study, Cube-and-Conquer (a combination of CDCL and lookahead) is applied to invert step-reduced versions of MD4 and MD5. For this purpose, two algorithms are proposed. The first one generates inversion problems for MD4 by gradually modifying the Dobbertin's constraints. The second algorithm tries the cubing phase of Cube-and-Conquer with different cutoff thresholds to find the one with minimal runtime estimation of the conquer phase. This algorithm operates in two modes: (i) estimating the hardness of an arbitrary given formula; (ii) incomplete SAT-solving of a given satisfiable formula. While the first algorithm is focused on inverting step-reduced MD4, the second one is not area-specific and so is applicable to a variety of classes of hard SAT instances. In this study, for the first time in history, 40-, 41-, 42-, and 43-step MD4 are inverted via the first algorithm and the estimating mode of the second algorithm. 28-step MD5 is inverted for four hashes via the incomplete SAT-solving mode of the second algorithm. For three hashes out of them this is done for the first time.
translated by 谷歌翻译
Two contrasting algorithmic paradigms for constraint satisfaction problems are successive local explorations of neighboring configurations versus producing new configurations using global information about the problem (e.g. approximating the marginals of the probability distribution which is uniform over satisfying configurations). This paper presents new algorithms for the latter framework, ultimately producing estimates for satisfying configurations using methods from Boolean Fourier analysis. The approach is broadly inspired by the quantum amplitude amplification algorithm in that it maximally increases the amplitude of the approximation function over satisfying configurations given sequential refinements. We demonstrate that satisfying solutions may be retrieved in a process analogous to quantum measurement made efficient by sparsity in the Fourier domain, and present a complete solver construction using this novel approximation. Freedom in the refinement strategy invites further opportunities to design solvers in an evolutionary computing framework. Results demonstrate competitive performance against local solvers for the Boolean satisfiability (SAT) problem, encouraging future work in understanding the connections between Boolean Fourier analysis and constraint satisfaction.
translated by 谷歌翻译
Generating diverse solutions to the Boolean Satisfiability Problem (SAT) is a hard computational problem with practical applications for testing and functional verification of software and hardware designs. We explore the way to generate such solutions using Denoising Diffusion coupled with a Graph Neural Network to implement the denoising function. We find that the obtained accuracy is similar to the currently best purely neural method and the produced SAT solutions are highly diverse, even if the system is trained with non-random solutions from a standard solver.
translated by 谷歌翻译
在多代理路径查找(MAPF)中,任务是从其初始位置找到多个代理的非冲突路径,以给定单个目标位置。 MAPF表示经常通过启发式搜索解决的古典人工智能问题。基于搜索的技术的重要替代方案是将MAPF编译为不同的形式主义,例如布尔满足性(SAT)。基于SAT的基于SAT的方法将SAT求解器视为外部工具,其任务是返回输入MAPF的布尔模型的所有决策变量的分配。我们在本短文中存在一种名为DPLL(MAPF)的新型编译方案,其中相对于MAPF规则的判定变量的部分分配的一致性检查直接集成到SAT求解器中。该方案允许在SAT求解器和一致性检查程序同时协同工作以创建布尔模型并搜索其令人满意的分配来进行更远的自动编译。
translated by 谷歌翻译
冲突驱动的子句学习(CDCL)是解决命题逻辑令人满意问题的非常成功的范式。这种求解器不是简单的深度优先回溯方法,而是以其他条款的形式了解了发生冲突的原因。但是,尽管CDCL求解器取得了巨大的成功,但仍然对以什么方式影响这些求解器的性能有限。考虑到不同的措施,本文非常令人惊讶地证明,从句学习(不摆脱某些条款)不仅可以帮助求解器,而且可能会大大恶化解决方案过程。通过进行广泛的经验分析,我们进一步发现,CDCL求解器的运行时分布是多模式的。这种多模式可以看作是上面描述的恶化现象的原因。同时,这也表明了为什么从条款删除结合条款学习的原因实际上是SAT解决的事实标准,尽管存在这种现象。作为最终贡献,我们表明Weibull混合物分布可以准确描述多模式分布。因此,在基本实例中添加新的子句具有长期运行时间的固有效果。该洞察力提供了一个解释,即为什么忘记条款的技术在CDCL求解器中有用,除了单位传播速度的优化。
translated by 谷歌翻译
循环不变的合成是程序验证的基础。由于问题的不可证实,因此不变合成的工具必然使用启发式方法。尽管人们普遍认为,启发式方法的设计对于合成器的性能至关重要,但启发式方法通常是根据经验和直觉的开发人员来设计的,有时是以\ emph {Ad-Hoc}方式进行的。在这项工作中,我们提出了一种系统地学习基于模板的反例引导的归纳合成(CEGIS)的方法,并通过增强学习。作为具体示例,我们在PCSAT之上实现了该方法,PCSAT是基于基于模板的CEGIS的不变合成器。实验表明,在我们的框架所学到的启发式方法的指导下,PCSAT不仅优于现有的基于CEGIS的最先进的求解器,例如Hoice和Neural Solver Code2Inv,而且比基于非CEGIS的求解器(例如基于非首席执行官)具有略有优势线性约束角(CHC)求解中的Eldarica和垫片。
translated by 谷歌翻译
优化在离散变量上的高度复杂的成本/能源功能是不同科学学科和行业的许多公开问题的核心。一个主要障碍是在硬实例中的某些变量子集之间的出现,导致临界减慢或集体冻结了已知的随机本地搜索策略。通常需要指数计算工作来解冻这种变量,并探索配置空间的其他看不见的区域。在这里,我们通过开发自适应梯度的策略来介绍一个量子启发的非本球非识别蒙特卡罗(NMC)算法,可以有效地学习成本函数的关键实例的几何特征。该信息随行使用,以构造空间不均匀的热波动,用于以各种长度尺度集体未填充变量,规避昂贵的勘探与开发权衡。我们将算法应用于两个最具挑战性的组合优化问题:随机k可满足(K-SAT)附近计算阶段转换和二次分配问题(QAP)。我们在专业的确定性求解器和通用随机求解器上观察到显着的加速和鲁棒性。特别是,对于90%的随机4-SAT实例,我们发现了最佳专用确定性算法无法访问的解决方案,该算法(SP)具有最强的10%实例的解决方案质量的大小提高。我们还通过最先进的通用随机求解器(APT)显示出在最先进的通用随机求解器(APT)上的时间到溶液的两个数量级改善。
translated by 谷歌翻译