符合使用机器学习的不断增长的趋势,帮助解决组合优化问题,一个有希望的想法是通过使用学习的策略来改善混合整数编程(MIP)分支和绑定树内的节点选择。以前使用模仿学习的工作指示通过学习自适应节点搜索顺序来获取节点选择策略的可行性。相比之下,我们的模仿学习策略仅专注于学习节点的孩子中的哪一个选择。我们介绍了一个脱机方法,用于在两个设置中学习这样的策略:一个通过致力于修剪节点的启发式;一个是从叶子精确和背溯以保证找到最佳整数解决方案的备用。前一个设置对应于困扰期间的儿童选择器,而后者则类似于潜水启发式。我们在热情和确切的设置中将策略应用于流行的开源求解器SCIP。五个MIP数据集的经验结果表明,我们的节点选择策略比文献中最先进的先例更快地导致解决方案。虽然我们在精确解决方案的时间内没有击败高度优化的SCIP状态基准节点选择器,但如果预测模型的准确性足够,我们的启发式政策比所有基线都具有始终如一的最佳最优性差距。此外,结果还表明,当应用时间限制时,我们的启发式方法发现比测试大多数问题中所有基线的更好的解决方案。我们通过表明学习的政策模仿了SCIP基线来解释结果,但没有后者早期的暴跌中止。我们的建议是,尽管对文献的清晰改进,但这种MIP儿童选择器在更广泛的方法中更好地使用MIP分支和束缚树决策。
translated by 谷歌翻译
在各种现实世界应用中,组合优化问题作为混合整数线性程序(MILP)无处不在。规范的分支和结合算法通过构建越来越约束的子问题的搜索树来寻求精确解决MILP。实际上,其解决时间性能取决于启发式方法,例如选择下一个变量来约束(“分支”)。最近,机器学习(ML)已成为分支的有希望的范式。但是,先前的工作一直在努力应用强化学习(RL),理由是稀疏的奖励,艰难的探索和部分可观察性是重大挑战。取而代之的是,领先的ML方法论通过模仿学习(IL)近似高质量的手工启发式方法,这排除了新型政策的发现并需要昂贵的数据标签。在这项工作中,我们提出了复古分支。一种简单而有效的分支RL方法。通过回顾性将搜索树解构为子树中包含的多个路径,我们使代理能够从更短的轨迹中学习具有更可预测的下一步状态。在对四个组合任务的实验中,我们的方法可以在没有任何专家指导或预培训的情况下学习分支。我们的表现优于当前最新的RL分支算法,比最佳IL方法在MILPS上具有500个约束和1000个变量的最佳性能的20%以内,并验证了我们的回顾性构建轨迹对于实现的必要这些结果。
translated by 谷歌翻译
This paper surveys the recent attempts, both from the machine learning and operations research communities, at leveraging machine learning to solve combinatorial optimization problems. Given the hard nature of these problems, state-of-the-art algorithms rely on handcrafted heuristics for making decisions that are otherwise too expensive to compute or mathematically not well defined. Thus, machine learning looks like a natural candidate to make such decisions in a more principled and optimized way. We advocate for pushing further the integration of machine learning and combinatorial optimization and detail a methodology to do so. A main point of the paper is seeing generic optimization problems as data points and inquiring what is the relevant distribution of problems to use for learning on a given task.
translated by 谷歌翻译
分支机构是一种用于组合优化的系统枚举方法,在该方法中,性能高度依赖于可变选择策略。最先进的手工启发式策略的推理时间相对较慢,而当前的机器学习方法需要大量的标记数据。我们提出了一种新方法,以根据使用强化学习(RL)范式来解决组合优化中的数据标记和推理潜伏期问题。我们使用模仿学习来引导RL代理,然后使用近端策略优化(PPO)进一步探索全球最佳动作。然后,一个值网络用于运行蒙特卡洛树搜索(MCT)以增强策略网络。我们评估了我们在四个不同类别的组合优化问题上的方法的性能,并表明我们的方法与最先进的机器学习和基于启发式方法的方法相比表现强劲。
translated by 谷歌翻译
在分支机构和结合中得出良好的可变选择策略对于现代混合编程(MIP)求解器的效率至关重要。通过在先前的解决方案过程中收集的MIP分支数据,学习分支方法最近变得比启发式方法更好。由于分支机构自然是一项顺序决策任务,因此应该学会优化整个MIP求解过程的实用性,而不是在每个步骤上都是近视。在这项工作中,我们将学习作为离线增强学习(RL)问题进行分支,并提出了一种长期视线的混合搜索方案来构建离线MIP数据集,该数据集对分支决策的长期实用程序。在政策培训阶段,我们部署了基于排名的奖励分配计划,以将有希望的样本与长期或短期视图区分开,并通过离线政策学习训练名为分支排名的分支模型。合成MIP基准和现实世界任务的实验表明,与广泛使用的启发式方法和基于先进的学习分支模型相比,分支rankink更有效,更健壮,并且可以更好地概括为MIP实例的大型MIP实例。
translated by 谷歌翻译
在混合整数线性编程(MIP)中,A(强)后门是实例的整数变量的“小”子集,具有以下属性:在分支和结合过程中,可以通过仅通过分支来求解该实例到全局最优性。在后门中的变量上。为广泛使用的MIP基准集或特定问题构建预计的后门数据集,家庭可以在MIP的新结构属性上引起新的问题,或者解释为什么在理论上很难在实践中有效解决问题的问题。现有用于查找后门的算法依赖于以各种方式对候选变量子集进行采样,这种方法证明了MIPLIB2003和MIPLIB2010的某些实例的后门存在。但是,由于勘探和剥削之间的不平衡,这些算法在任务中始终取得成功。我们建议BAMCTS,这是一个蒙特卡洛树搜索框架,用于寻找MIPS的后门。广泛的算法工程,与传统MIP概念的杂交以及与CPLEX求解器的密切集成使我们的方法能够超过MIPLIB2017实例的基础线,从而更频繁,更有效地找到后门。
translated by 谷歌翻译
表达性和计算便宜的两分图神经网络(GNN)已被证明是基于深度学习的混合成分线性程序(MILP)求解器的重要组成部分。最近的工作证明了此类GNN在分支结合(B&B)求解器中取代分支(可变选择)启发式方面的有效性。这些GNN经过训练,离线和集合,以模仿一个非常好但计算昂贵的分支启发式,强大的分支。鉴于B&B会导致子隔间树,我们问(a)目标启发式启发式在B&B树的邻近节点之间是否存在很强的依赖性,并且(b)如果是这样,我们是否可以将它们合并到我们的培训程序。具体来说,我们发现,有了强大的分支启发式,孩子节点的最佳选择通常是父母的第二好的选择。我们将其称为“回顾”现象。令人惊讶的是,Gasse等人的典型分支GNN。 (2019年)经常错过这个简单的“答案”。为了通过将回顾现象纳入GNN来更紧密地模仿目标行为,我们提出了两种方法:(a)标准跨凝性损失函数的目标平滑,(b)添加父级(PAT)target(PAT)回顾量学期。最后,我们提出了一个模型选择框架,以结合更难构建的目标,例如在最终模型中解决时间。通过对标准基准实例进行广泛的实验,我们表明我们的提案导致B&B树大小的22%减少,并且在解决时间的解决方案中提高了15%。
translated by 谷歌翻译
切割平面对于解决混合企业线性问题(MILP)至关重要,因为它们促进了最佳解决方案值的界限。为了选择切割,现代求解器依靠手动设计的启发式方法来评估切割的潜在有效性。我们表明,一项贪婪的选择规则明确地寻求选择的剪裁,从而产生最佳的界限可以为切割选择提供强大的决策 - 但太贵了,无法在实践中部署。作为回应,我们提出了一种新的神经体系结构(神经曲),以模仿LookAhead专家。我们的模型优于标准基准,用于在几个合成的MILP基准上进行切割选择。使用B&C求解器进行神经网络验证的实验进一步验证了我们的方法,并在这种情况下展示了学习方法的潜力。
translated by 谷歌翻译
为混合整数线性编程问题(MILLS)找到高质量解决方案对于许多实际应用非常重要。在这方面,提出了精炼启发式局部分支(LB)来生产改进解决方案,并且对MILP中的本地搜索方法的开发产生了高度影响力。该算法迭代地探索由所谓的本地分支约束定义的一系列解决方案邻域,即,限制与参考解决方案的距离的线性不等式。对于LB算法,邻域大小的选择对于性能至关重要。虽然它是由原始LB方案中的保守值初始化的,但我们的新观察是最佳规模强烈依赖于特定的MILP实例。在这项工作中,我们调查搜索附近的大小与底层LB算法的行为之间的关系,我们设计了一种基于倾斜的框架,用于引导LB启发式的邻居搜索。该框架由两阶段战略组成。对于第一阶段,训练缩放的回归模型以通过回归任务在第一迭代中预测LB邻域的大小。在第二阶段,我们利用加强学习和设计加强的邻域搜索策略,以动态调整随后的迭代处的大小。我们计算地表明,确实可以学习邻域大小,导致改进的性能,并且整个算法在实例大小相对于实例大小概括,并且显着地跨越实例概括。
translated by 谷歌翻译
组合优化是运营研究和计算机科学领域的一个公认领域。直到最近,它的方法一直集中在孤立地解决问题实例,而忽略了它们通常源于实践中的相关数据分布。但是,近年来,人们对使用机器学习,尤其是图形神经网络(GNN)的兴趣激增,作为组合任务的关键构件,直接作为求解器或通过增强确切的求解器。GNN的电感偏差有效地编码了组合和关系输入,因为它们对排列和对输入稀疏性的意识的不变性。本文介绍了对这个新兴领域的最新主要进步的概念回顾,旨在优化和机器学习研究人员。
translated by 谷歌翻译
决策树学习是机器学习中广泛使用的方法,在需要简洁明了的模型的应用中受到青睐。传统上,启发式方法用于快速生产具有相当高准确性的模型。然而,一个普遍的批评是,从精度和大小方面,所产生的树可能不一定是数据的最佳表示。近年来,这激发了最佳分类树算法的发展,这些算法与执行一系列本地最佳决策的启发式方法相比,在全球范围内优化决策树。我们遵循这一工作线,并提供了一种基于动态编程和搜索的最佳分类树的新颖算法。我们的算法支持对树的深度和节点数量的约束。我们方法的成功归因于一系列专门技术,这些技术利用了分类树独有的属性。传统上,最佳分类树的算法受到了高运行时的困扰和有限的可伸缩性,但我们在一项详细的实验研究中表明,我们的方法仅使用最先进的时间所需的时间,并且可以处理数十个数据集的数据集在数千个实例中,提供了几个数量级的改进,并特别有助于实现最佳决策树的实现。
translated by 谷歌翻译
对于组合优化(ML4CO)竞争的2021个内潜冲潮羊件机器学习是为了通过用机器学习模型替换关键启发式组件来改善最先进的组合优化求解器的目的。竞争的主要科学问题是以下内容:机器是在历史数据可用的特定问题分布时改进传统组合优化求解器的可行选择,是一种可行的选择这是因为在许多实际情况中,数据在组合优化问题的重复之间只会略微发生变化,这是机器学习模型特别强大的区域。本文总结了华为EI-ORAS团队在竞争对手的双重任务中汲取的解决方案和经验教训。我们团队的提交在最终排名中实现了第二位,距离第一点非常近距离。此外,在最终评估之前,我们的解决方案首先是持续的几周排行榜更新。我们提供从大量实验中获得的见解,并争辩说简单的图形卷积神经网络(GCNNS)可以在训练和调整正确的情况下实现最先进的结果。
translated by 谷歌翻译
回溯搜索算法通常用于解决约束满足问题(CSP)。回溯搜索的效率在很大程度上取决于可变排序启发式。目前,最常用的启发式是根据专家知识进行手工制作的。在本文中,我们提出了一种基于深度的加强学习方法,可以自动发现新的变量订购启发式,更好地适用于给定类CSP实例。我们显示,直接优化搜索成本很难用于自动启动,并建议优化在搜索树中到达叶节点的预期成本。为了捕获变量和约束之间的复杂关系,我们设计基于图形神经网络的表示方案,可以处理具有不同大小和约束的CSP实例。随机CSP实例上的实验结果表明,学习的政策在最小化搜索树大小的方面优于古典手工制作的启发式,并且可以有效地推广到比训练中使用的实例。
translated by 谷歌翻译
柱生成(CG)是解决大规模优化问题的有效方法。CG通过求解列(即变量)的子集并逐渐包括可以改善当前子问题的解决方案的新列。通过反复解决定价问题,根据需要产生新列,这通常是NP - 硬的并且是CG方法的瓶颈。为了解决这个问题,我们提出了一种基于机器学习的定价启发式(MLPH),可以有效地产生许多高质量的柱。在CG的每次迭代中,我们的MLPH利用ML模型来预测定价问题的最佳解决方案,然后用于引导采样方法以有效地产生多个高质量柱。使用图形着色问题,我们经验证明,与六种最先进的方法相比,MLPH显着增强,并且CG的改善可能导致分支和价格精确方法的显着更好的性能。
translated by 谷歌翻译
最小的平方和群集(MSSC)或K-Means型聚类,传统上被认为是无监督的学习任务。近年来,使用背景知识来提高集群质量,促进聚类过程的可解释性已成为数学优化和机器学习研究的热门研究课题。利用数据群集中的背景信息的问题称为半监督或约束群集。在本文中,我们为半监控MSSC提供了一种新的分支和绑定算法,其中背景知识被包含为成对必须 - 链接和无法链接约束。对于较低的界限,我们解决了MSSC离散优化模型的Semidefinite编程宽松,并使用了用于加强界限的纤维平面程序。相反,通过使用整数编程工具,我们提出了将K-Means算法适应受约束的情况。这是第一次,所提出的全局优化算法有效地管理,以解决现实世界的情况,最高可达800个数据点,具有必要的必须 - 链接和无法链接约束以及通用数量的功能。这个问题大小大约比最先进的精确算法解决的实例大约四倍。
translated by 谷歌翻译
切割选择是所有现代混合企业线性编程求解器中使用的子例程,其目标是选择诱导最佳求解器性能的生成的切割子集。这些求解器具有数百万个参数组合,因此是参数调整的出色候选者。剪切选择评分规则通常是权重是参数的不同测量值的加权总和。我们提出了一个混合企业线性程序的参数家族,以及无限许多家庭范围的有效削减。这些切割中的一些可以在应用后直接诱导整数最佳解决方案,而另一些剪切也无法诱导整数,即使应用了无限量。我们为特定的剪切选择规则显示,对参数空间的任何有限网格搜索都将始终错过所有参数值,这些参数值选择了无限量的我们的问题。我们提出了现有图形卷积神经网络设计的变体,以适应它们以学习切割选择规则参数。我们提出了选择削减的强化学习框架,并使用Miplib 2017上的上述框架训练我们的设计。我们的框架和设计表明,自适应切割选择确实在各种实例上确实提高了性能,但是找到一个描述这样一个功能的功能规则很困难。复制所有实验的代码可在https://github.com/opt-mucca/adaptive-cutsel-milp上获得。
translated by 谷歌翻译
In the last years, there has been a great interest in machine-learning-based heuristics for solving NP-hard combinatorial optimization problems. The developed methods have shown potential on many optimization problems. In this paper, we present a learned heuristic for the reoptimization of a problem after a minor change in its data. We focus on the case of the capacited vehicle routing problem with static clients (i.e., same client locations) and changed demands. Given the edges of an original solution, the goal is to predict and fix the ones that have a high chance of remaining in an optimal solution after a change of client demands. This partial prediction of the solution reduces the complexity of the problem and speeds up its resolution, while yielding a good quality solution. The proposed approach resulted in solutions with an optimality gap ranging from 0\% to 1.7\% on different benchmark instances within a reasonable computing time.
translated by 谷歌翻译
Monte Carlo Tree Search (MCTS) is a recently proposed search method that combines the precision of tree search with the generality of random sampling. It has received considerable interest due to its spectacular success in the difficult problem of computer Go, but has also proved beneficial in a range of other domains. This paper is a survey of the literature to date, intended to provide a snapshot of the state of the art after the first five years of MCTS research. We outline the core algorithm's derivation, impart some structure on the many variations and enhancements that have been proposed, and summarise the results from the key game and non-game domains to which MCTS methods have been applied. A number of open research questions indicate that the field is ripe for future work.
translated by 谷歌翻译
\ textit {约束路径发现}的经典问题是一个经过充分研究但充满挑战的主题,在各个领域,例如沟通和运输等各个领域的应用。权重限制了最短路径问题(WCSPP),作为仅具有一个侧面约束的约束路径查找的基本形式,旨在计划成本最佳路径,其权重/资源使用受到限制。鉴于问题的双标准性质(即处理路径的成本和权重),解决WCSPP的方法具有一些带有双目标搜索的共同属性。本文在约束路径查找和双目标搜索中利用了最新的基于A*的最新技术,并为WCSPP提供了两种精确的解决方案方法,两者都可以在非常大的图表上解决硬性问题实例。我们从经验上评估了算法在新的大型和现实的问题实例上的性能,并在时空指标中显示出它们比最新算法的优势。本文还调查了优先级队列在被a*的约束搜索中的重要性。我们通过对逼真的和随机图进行了广泛的实验来展示,基于桶的队列没有打破打盘的方式可以有效地改善详尽的双标准搜索的算法性能。
translated by 谷歌翻译
混合成员非线性优化是具有组合结构和非线性的广泛问题。典型的精确方法将分支和结合的方案与放松和分离子例程相结合。我们研究了基于此设置的Frank-Wolfe算法的错误自适应一阶方法的属性和优势,仅需要梯度甲骨文来实现目标函数和可行集合上的线性优化。特别是,我们将研究通过分支和结合方法进行优化的算法后果,在这种方法中,由于Frank-Wolfe线性甲骨文而引起的混合构件的凸面上的子问题与解决连续放松上的子问题相比同一组。这种新颖的方法在处理多面体约束的单个表示时计算可行的解决方案,利用了没有外近似方案的混合智能编程(MIP)求解器的全部范围。
translated by 谷歌翻译