在过去几年预测和优化的方法(Elmachtoub和Grigas 2021; Wilder,Dilkina和Tambe 2019)受到了不断的关注。这些问题具有预测机器学习(ML)模型的预测的设置,馈送到下游优化问题以进行决策。预测和优化方法建议培训ML模型,通常通过直接优化优化求解器所制作的决策质量。但是,预测和优化方法的一个主要瓶颈正在为每个时代的每个训练实例解决优化问题。为了解决这一挑战,Mulamba等。 (2021)通过缓存可行的解决方案提出噪声对比估计。在这项工作中,我们显示噪声对比估计可以被认为是学习对解决方案缓存进行排名的情况。我们还开发成对和列表排名损失函数,可以以封闭式形式区分,而无需解决优化问题。通过关于这些替代损失职能的培训,我们经验证明我们能够最大限度地减少预测的遗憾。
translated by 谷歌翻译
在确定性优化中,通常假定问题的所有参数都是固定和已知的。但是,实际上,某些参数可能是未知的先验参数,但可以从历史数据中估算。典型的预测 - 优化方法将预测和优化分为两个阶段。最近,端到端的预测到优化已成为有吸引力的替代方法。在这项工作中,我们介绍了PYEPO软件包,这是一个基于Pytorch的端到端预测,然后在Python中进行了优化的库。据我们所知,PYEPO(发音为“带有静音” n“”的“菠萝”)是线性和整数编程的第一个通用工具,具有预测的目标函数系数。它提供了两种基本算法:第一种基于Elmachtoub&Grigas(2021)的开创性工作的凸替代损失函数,第二个基于Vlastelica等人的可区分黑盒求解器方法。 (2019)。 PYEPO提供了一个简单的接口,用于定义新的优化问题,最先进的预测 - 优化训练算法,自定义神经网络体系结构的使用以及端到端方法与端到端方法与与端到端方法的比较两阶段的方法。 PYEPO使我们能够进行一系列全面的实验,以比较沿轴上的多种端到端和两阶段方法,例如预测准确性,决策质量和运行时间,例如最短路径,多个背包和旅行等问题销售人员问题。我们讨论了这些实验中的一些经验见解,这些见解可以指导未来的研究。 PYEPO及其文档可在https://github.com/khalil-research/pyepo上找到。
translated by 谷歌翻译
机器学习(ML)管道中的组合优化(CO)层是解决数据驱动决策任务的强大工具,但它们面临两个主要挑战。首先,CO问题的解通常是其客观参数的分段常数函数。鉴于通常使用随机梯度下降对ML管道进行训练,因此缺乏斜率信息是非常有害的。其次,标准ML损失在组合设置中不能很好地工作。越来越多的研究通过各种方法解决了这些挑战。不幸的是,缺乏维护良好的实现会减慢采用CO层的速度。在本文的基础上,我们对CO层介绍了一种概率的观点,该观点自然而然地是近似分化和结构化损失的构建。我们从文献中恢复了许多特殊情况的方法,我们也得出了新方法。基于这个统一的观点,我们提出了inferpopt.jl,一个开源的朱莉娅软件包,1)允许将任何具有线性物镜的Co Oracle转换为可区分的层,以及2)定义足够的损失以训练包含此类层的管道。我们的图书馆使用任意优化算法,并且与朱莉娅的ML生态系统完全兼容。我们使用视频游戏地图上的探索问题来证明其能力。
translated by 谷歌翻译
学习 - 排名问题旨在排名,以最大限度地曝光与用户查询相关的那些。这种排名系统的理想特性是保证指定项目组之间的一些公平概念。虽然最近在学习排名系统的背景下审议了公平性,但目前的方法无法提供拟议的排名政策的公平性的担保。本文解决了这一差距,并介绍了智能预测,并优化了公平排名(SPOFR),综合优化和学习框架,以便进行公平受限学习。端到端的SPOFR框架包括受约束的优化子模型,并产生保证的排名策略,以满足公平限制,同时允许对公平实用权概况进行精细控制。SPOFR显示出在既定的性能指标方面显着提高当前最先进的公平学习系统。
translated by 谷歌翻译
In this short technical note we propose a baseline for decision-aware learning for contextual linear optimization, which solves stochastic linear optimization when cost coefficients can be predicted based on context information. We propose a decision-aware version of predict-then-optimize. We reweigh the prediction error by the decision regret incurred by an (unweighted) pilot estimator of costs to obtain a decision-aware predictor, then optimize with cost predictions from the decision-aware predictor. This method can be motivated as a finite-difference, iterate-independent approximation of the gradients of previously proposed end-to-end learning algorithms; it is also consistent with previously suggested intuition for end-to-end learning. This baseline is computationally easy to implement with readily available reweighted prediction oracles and linear optimization, and can be implemented with convex optimization so long as the prediction error minimization is convex. Empirically, we demonstrate that this approach can lead to improvements over a "predict-then-optimize" framework for settings with misspecified models, and is competitive with other end-to-end approaches. Therefore, due to its simplicity and ease of use, we suggest it as a simple baseline for end-to-end and decision-aware learning.
translated by 谷歌翻译
预测+优化是一个常见的真实范式,在那里我们必须在解决优化问题之前预测问题参数。然而,培训预测模型的标准通常与下游优化问题的目标不一致。最近,已经提出了集中的预测方法,例如Spo +和直接优化,以填补这种差距。但是,它们不能直接处理许多真实目标所需的$最大$算子的软限制。本文提出了一种用于现实世界线性和半定义负二次编程问题的新型分析微弱的代理目标框架,具有软线和非负面的硬度约束。该框架给出了约束乘法器上的理论界限,并导出了关于预测参数的闭合形式解决方案,从而导出问题中的任何变量的梯度。我们在使用软限制扩展的三个应用程序中评估我们的方法:合成线性规划,产品组合优化和资源供应,表明我们的方法优于传统的双阶段方法和其他集中决定的方法。
translated by 谷歌翻译
许多实际优化问题涉及不确定的参数,这些参数具有概率分布,可以使用上下文特征信息来估算。与首先估计不确定参数的分布然后基于估计优化目标的标准方法相反,我们提出了一个\ textIt {集成条件估计 - 优化}(ICEO)框架,该框架估计了随机参数的潜在条件分布同时考虑优化问题的结构。我们将随机参数的条件分布与上下文特征之间的关系直接建模,然后以与下游优化问题对齐的目标估算概率模型。我们表明,我们的ICEO方法在适度的规律性条件下渐近一致,并以概括范围的形式提供有限的性能保证。在计算上,使用ICEO方法执行估计是一种非凸面且通常是非差异的优化问题。我们提出了一种通用方法,用于近似从估计的条件分布到通过可区分函数的最佳决策的潜在非差异映射,这极大地改善了应用于非凸问题的基于梯度的算法的性能。我们还提供了半代理案例中的多项式优化解决方案方法。还进行了数值实验,以显示我们在不同情况下的方法的经验成功,包括数据样本和模型不匹配。
translated by 谷歌翻译
以决策为中心的学习(DFL)是为下游优化任务量身定制预测模型的范式,该任务使用其预测以更好地执行该特定任务。与DFL相关的主要技术挑战是,它需要能够通过优化问题进行区分,这由于不连续的解决方案和其他挑战很难。过去的工作主要通过手工制作特定于任务的替代物来解决这个问题,这些替代品可以在区分时提供信息丰富的梯度。但是,需要为每个新任务进行手工替代的需要限制了DFL的可用性。此外,通常无法保证产生的替代物的凸度,因此,训练使用它们的预测模型会导致局部优势较低。在本文中,我们完全消除了代孕,而是学习捕获特定于任务信息的损失功能。据我们所知,我们的方法是第一种完全替代以决策为中心学习的优化组成部分,自动学习的损失。我们的方法(a)仅需要访问可以解决优化问题并因此可以推广的黑盒甲骨文,并且(b)可以通过构造传播,因此可以轻松地优化。我们对文献中三个资源分配问题进行评估,发现我们的方法在没有考虑到所有三个领域的任务结构,甚至是文献中手工制作的代理人的情况下都优于学习的方法。
translated by 谷歌翻译
预测到优化的框架在许多实际设置中都是基础:预测优化问题的未知参数,然后使用参数的预测值解决该问题。与参数的预测误差相反,在这种环境中的自然损失函数是考虑预测参数引起的决策成本。最近在Elmachtoub和Grigas(2022)中引入了此损失函数,并被称为智能预测 - 优化(SPO)损失。在这项工作中,我们试图提供有关在SPO损失的背景下,预测模型在训练数据中概括的预测模型的性能如何。由于SPO损失是非凸面和非lipschitz,因此不适用推导概括范围的标准结果。我们首先根据natarajan维度得出界限,在多面体可行区域中,在极端点数中最大程度地比对数扩展,但是,在一般凸的可行区域中,对决策维度具有线性依赖性。通过利用SPO损耗函数的结构和可行区域的关键特性,我们将其表示为强度属性,我们可以显着提高对决策和特征维度的依赖。我们的方法和分析依赖于围绕有问题的预测的利润,这些预测不会产生独特的最佳解决方案,然后在修改后的利润率SPO损失函数的背景下提供了概括界限,而SPO损失函数是Lipschitz的连续。最后,我们表征了强度特性,并表明可以有效地计算出具有显式极端表示的强凸体和多面体的修饰的SPO损耗。
translated by 谷歌翻译
组合优化是运营研究和计算机科学领域的一个公认领域。直到最近,它的方法一直集中在孤立地解决问题实例,而忽略了它们通常源于实践中的相关数据分布。但是,近年来,人们对使用机器学习,尤其是图形神经网络(GNN)的兴趣激增,作为组合任务的关键构件,直接作为求解器或通过增强确切的求解器。GNN的电感偏差有效地编码了组合和关系输入,因为它们对排列和对输入稀疏性的意识的不变性。本文介绍了对这个新兴领域的最新主要进步的概念回顾,旨在优化和机器学习研究人员。
translated by 谷歌翻译
Two-stage robust optimization problems constitute one of the hardest optimization problem classes. One of the solution approaches to this class of problems is K-adaptability. This approach simultaneously seeks the best partitioning of the uncertainty set of scenarios into K subsets, and optimizes decisions corresponding to each of these subsets. In general case, it is solved using the K-adaptability branch-and-bound algorithm, which requires exploration of exponentially-growing solution trees. To accelerate finding high-quality solutions in such trees, we propose a machine learning-based node selection strategy. In particular, we construct a feature engineering scheme based on general two-stage robust optimization insights that allows us to train our machine learning tool on a database of resolved B&B trees, and to apply it as-is to problems of different sizes and/or types. We experimentally show that using our learned node selection strategy outperforms a vanilla, random node selection strategy when tested on problems of the same type as the training problems, also in case the K-value or the problem size differs from the training ones.
translated by 谷歌翻译
制定现实世界优化问题通常从历史数据中的预测开始(例如,旨在推荐快速路线在旅行时间预测上依赖的优化器)。通常,学习用于生成优化问题的预测模型并解决该问题的在两个单独的阶段中执行。最近的工作表明,通过通过优化任务区分,如何通过差异来学习这些预测模型。这些方法通常会产生经验改进,通常归因于端到端,比两级解决方案中使用的标准损耗功能更好地制作更好的误差权衡。我们优化这种解释,更精确地表征端到端可以提高性能。当预测目标是随机时,两级解决方案必须先验到模型的目标分布的统计数据 - 我们考虑对预测目标的预期 - 而端到端解决方案可以自适应地使这一选择。我们表明,两阶段和端到端方法之间的性能差距与随机优化中相关概念的价格密切相关,并显示了一些现有的POC结果对预测的优化问题的影响。然后,我们考虑一种新颖且特别实际的设置,其中组合多种预测目标以获得每个目标函数的系数。我们给出了明确的结构,其中(1)两级表现不足低于端到端; (2)两级是最佳的。我们使用模拟来通过实验量化性能差距,并从文献中确定各种现实世界应用,其客观函数依赖于多种预测目标,表明端到端学习可以产生重大改进。
translated by 谷歌翻译
本文在线学习和优化框架内提出并开发了一种用于电力市场中风能交易的新算法。特别是,我们将梯度下降算法的组成部分自适应变体与功能驱动的新闻册模型的最新进展相结合。这导致了一种在线产品的方法,能够利用数据丰富的环境,同时适应能源发电和发电市场的非平稳特征,并且具有最小的计算负担。根据几个数值实验,对我们的方法的性能进行了分析,既显示了对非平稳性不确定参数的更好适应性和显着的经济增长。
translated by 谷歌翻译
This paper surveys the recent attempts, both from the machine learning and operations research communities, at leveraging machine learning to solve combinatorial optimization problems. Given the hard nature of these problems, state-of-the-art algorithms rely on handcrafted heuristics for making decisions that are otherwise too expensive to compute or mathematically not well defined. Thus, machine learning looks like a natural candidate to make such decisions in a more principled and optimized way. We advocate for pushing further the integration of machine learning and combinatorial optimization and detail a methodology to do so. A main point of the paper is seeing generic optimization problems as data points and inquiring what is the relevant distribution of problems to use for learning on a given task.
translated by 谷歌翻译
预测+优化是一个最近提出的框架,将机器学习和约束优化结合在一起,解决包含在求解时间未知参数的优化问题。目标是预测未知参数,并使用估计值来解决优化问题的估计最佳解决方案。但是,所有先前的作品都集中在未知参数仅出现在优化目标而不是约束中的情况下,其简单原因是,如果不确定的约束,则估计的最佳解决方案在真实参数下甚至可能是可行的。 。本文的贡献是两个方面。首先,我们为预测+优化设置提出了一个新颖且实际相关的框架,但是在目标和约束中都有未知参数。我们介绍了校正函数的概念,并在损失函数中的额外惩罚项进行了建模实际情况,在该方案中可以将估计的最佳解决方案修改为可行的解决方案,并在揭示了真实参数后,但以额外的成本进行了修改。其次,我们为我们的框架提出了相应的算法方法,该方法处理所有包装和涵盖线性程序。我们的方法灵感来自先前的曼迪和枪支工作,尽管对我们的不同环境进行了关键的修改和重新启示。实验证明了我们方法比经典方法的卓越经验表现。
translated by 谷歌翻译
对排名进行机器学习方法的关键挑战是利益性能度量与可通过基于梯度的方法进行优化的替代损失功能之间的差距。出现这种间隙,因为排名指标通常涉及不分辨率的分类操作w.r.t.模型参数。先前的作品已经提出了与排名指标或简单平滑版本松散相关的代理,并且通常无法扩展到现实世界的应用程序。我们提出了一类新的替代替代品的Pirank,用于排名,基于NeuralOrtor [1]采用连续的温度控制的排放,对分拣操作员进行分拣操作员。我们表明,Pirank恰好恢复了零温度限制的所需度量,进一步提出了分割和征服的延伸,在理论和实践中,对大型名单尺寸有利地缩放。经验上,我们展示了培训期间更大名单大小的作用,并表明Pirank显着提高了公开可用的互联网规模学习的基准的可比方法。
translated by 谷歌翻译
我们研究了在线上下文决策问题,并具有资源约束。在每个时间段,决策者首先根据给定上下文向量预测奖励向量和资源消耗矩阵,然后解决下游优化问题以做出决策。决策者的最终目标是最大程度地利用资源消耗的奖励和效用总结,同时满足资源限制。我们提出了一种算法,该算法将基于“智能预测 - 优化(SPO)”方法的预测步骤与基于镜像下降的双重更新步骤。我们证明了遗憾的界限,并证明了我们方法的总体收敛率取决于$ \ Mathcal {o}(t^{ - 1/2})$在线镜面下降的收敛性以及使用的替代损失功能的风险范围学习预测模型。我们的算法和后悔界限适用于资源约束的一般凸的可行区域,包括硬和软资源约束案例,它们适用于广泛的预测模型,与线性上下文模型或有限策略空间的传统设置相比。我们还进行数值实验,以与传统的仅限预测方法相比,在多维背包和最长的路径实例上,与传统的仅预测方法相比,我们提出的SPO型方法的强度。
translated by 谷歌翻译
除了最大化总收入外,许多行业的决策者还希望保证跨不同资源的公平消费,并避免饱和某些资源。在这些实际需求的推动下,本文研究了基于价格的网络收入管理问题,需求学习和公平性关注不同资源的消费。我们介绍了正式的收入,即以公平的正规化为目标,作为我们的目标,将公平性纳入收入最大化目标。我们提出了一种原始的偶型在线政策,并使用受到信心限制(UCB)的需求学习方法最大化正规化收入。我们采用了几种创新技术,以使我们的算法成为连续价格集和广泛的公平规则化的统一和计算高效的框架。我们的算法实现了$ \ tilde o(n^{5/2} \ sqrt {t})$的最坏遗憾,其中$ n $表示产品数,$ t $表示时间段。一些NRM示例中的数值实验证明了我们算法在平衡收入和公平性方面的有效性。
translated by 谷歌翻译
在这项研究中,我们提出了一个深入的学习优化框架,以解决动态的混合企业计划。具体而言,我们开发了双向长期内存(LSTM)框架,可以及时向前和向后处理信息,以学习最佳解决方案,以解决顺序决策问题。我们展示了我们在预测单项电容批号问题(CLSP)的最佳决策方面的方法,其中二进制变量表示是否在一个时期内产生。由于问题的动态性质,可以将CLSP视为序列标记任务,在该任务中,复发性神经网络可以捕获问题的时间动力学。计算结果表明,我们的LSTM优化(LSTM-OPT)框架大大减少了基准CLSP问题的解决方案时间,而没有太大的可行性和最佳性。例如,对于240,000多个测试实例,在85 \%级别的预测平均将CPLEX溶液的时间减少了9倍,最佳差距小于0.05 \%\%和0.4 \%\%\%\%\%的不可行性。此外,使用较短的计划范围训练的模型可以成功预测具有更长计划范围的实例的最佳解决方案。对于最困难的数据集,LSTM在25 \%级别的LSTM预测将70 CPU小时的溶液时间降低至小于2 CPU分钟,最佳差距为0.8 \%,而没有任何不可行。 LSTM-OPT框架在解决方案质量和精确方法方面,诸如Logistic回归和随机森林之类的经典ML算法(例如($ \ ell $,s)和基于动态编程的不平等,解决方案时间的改进。我们的机器学习方法可能有益于解决类似于CLSP的顺序决策问题,CLSP需要重复,经常和快速地解决。
translated by 谷歌翻译
这项工作解决了逆线优化,其中目标是推断线性程序的未知成本向量。具体地,我们考虑数据驱动的设置,其中可用数据是对应于线性程序的不同实例的最佳解决方案的嘈杂的观察。我们介绍了一个问题的新配方,与其他现有方法相比,允许恢复较少的限制性和一般更适当的可允许成本估算。可以表明,该逆优化问题产生有限数量的解决方案,并且我们开发了一个精确的两相算法来确定所有此类解决方案。此外,我们提出了一种有效的分解算法来解决问题的大实例。该算法自然地扩展到在线学习环境,可以用于提供成本估计的快速更新,因为新数据随着时间的推移可用。对于在线设置,我们进一步开发了一种有效的自适应采样策略,指导下一个样本的选择。所提出的方法的功效在涉及两种应用,客户偏好学习和生产计划的成本估算的计算实验中进行了证明。结果表明计算和采样努力的显着减少。
translated by 谷歌翻译