在线作业问题在运营研究和计算机科学中起着重要作用,这就是为什么要引起了提高其解决方案质量的极大关注的原因。由于有关输入的不完整信息,在线算法很难产生最佳解决方案。使用竞争比率测量在线算法的解决方案的质量。没有在线确定性算法可以比(2N-1)更好地实现竞争比率。已经表明,在线计算中的建议改善了在线问题的竞争比率的下限。在线计算中的建议可以解释为在线算法的其他信息,以补偿缺乏有关整个输入序列的信息。在这项研究中,我们研究了引入机器学习建议如何改善此问题的竞争比率。通过模拟机器学习算法,我们为在线分配问题提供了在线算法,该算法预先预测了整个输入。我们利用一种最佳离线算法来提供预测输入的匹配解决方案。此外,我们研究了机器学习的预测错误如何影响在线算法的竞争比率。我们利用基准数据集来执行我们的经验分析。我们表明,随着机器学习预测误差的增加,解决方案质量会降低。此外,误差的大小与输入的大小成正比。该结果类似于在线分配问题最佳确定性算法的竞争比率,该算法也取决于参数n。
translated by 谷歌翻译
探索未知环境是许多域中的基本任务,例如机器人导航,网络安全和互联网搜索。我们通过添加对机器学习的预测的访问来启动古典卓越的在线图探索问题的学习增强变体。我们提出了一种自然地将预测集成到众所周知的最近邻居(NN)算法中的算法,并且如果预测具有高精度,则在预测时保持良好的保证的情况下显着优于任何已知的在线算法。我们提供了理论上的最坏情况界,以预测误差优雅地降低,我们通过确认我们的结果的计算实验来补充它们。此外,我们将我们的概念扩展到稳定算法的一般框架。通过在给定的算法和NN之间仔细插值,我们证明了新的性能界限,这些界限在特定输入上利用各个良好的性能,同时建立了任意输入的鲁棒性。
translated by 谷歌翻译
Online bipartite-matching platforms are ubiquitous and find applications in important areas such as crowdsourcing and ridesharing. In the most general form, the platform consists of three entities: two sides to be matched and a platform operator that decides the matching. The design of algorithms for such platforms has traditionally focused on the operator's (expected) profit. Since fairness has become an important consideration that was ignored in the existing algorithms a collection of online matching algorithms have been developed that give a fair treatment guarantee for one side of the market at the expense of a drop in the operator's profit. In this paper, we generalize the existing work to offer fair treatment guarantees to both sides of the market simultaneously, at a calculated worst case drop to operator profit. We consider group and individual Rawlsian fairness criteria. Moreover, our algorithms have theoretical guarantees and have adjustable parameters that can be tuned as desired to balance the trade-off between the utilities of the three sides. We also derive hardness results that give clear upper bounds over the performance of any algorithm.
translated by 谷歌翻译
本文考虑了最近流行的超越最坏情况算法分析模型,其与在线算法设计集成了机器学习预测。我们在此模型中考虑在线Steiner树问题,用于指向和无向图。据了解施泰纳树在线设置中具有强大的下限,并且任何算法的最坏情况都远非可取。本文考虑了预测哪个终端在线到达的算法。预测可能是不正确的,并且算法的性能由错误预测的终端的数量进行参数化。这些保证确保算法通过具有良好预测的在线下限,并且随着预测误差的增长,竞争比率优雅地降低。然后,我们观察到该理论是预测将经验发生的事情。我们在终端从分发中绘制的图表中显示了终端,即使具有适度正确的预测,新的在线算法也具有很强的性能。
translated by 谷歌翻译
我们研究了在线偏好聚合的基本模型,其中算法保留了$ n $元素的有序列表。输入是首选集$ r_1,r_2,\ dots,r_t,\ dots $的流。在看到$ r_t $并且在不了解未来集合的情况下,必须将算法重新读取元素(更改列表订购),以便至少在列表的前面找到$ r_t $的一个元素。所产生的成本是列表更新成本的总和(相邻列表元素的互换数量)和访问成本(列表中$ r_t $的第一个元素的位置)。这种情况自然发生在诸如使用商店客户聚集的偏好中在线商店订购的应用程序中。该问题的理论基础称为Min-sum集盖。与以前的工作(Fotakis等人,ICALP 2020,NIPS 2020)不同,主要研究了在线算法ALG对静态最佳解决方案(单个最佳列表顺序)的性能,我们在本文中,我们研究了一个更难的变体,其中一个更难基准是可证明的更强的最佳动态解决方案OPT(也可能会修改列表排序)。就在线商店而言,这意味着其用户群的汇总偏好随时间发展。我们构建了一种计算高效的随机算法,其竞争比(alg-opt成本比)为$ O(r^2)$,并证明存在确定性$ O(r^4)$ - 竞争算法。在这里,$ r $是集合$ r_t $的最大基数。这是第一个算法的比率不依赖于$ n $:此问题的先前最佳算法是$ O(r^{3/2} \ cdot \ sqrt \ sqrt {n})$ - 竞争性和$ \ omega(r )$是任何确定性在线算法的性能的下限。
translated by 谷歌翻译
本文研究在线算法增强了多个机器学习预测。尽管近年来已经广泛研究了随着单个预测的增强在线算法,但多个预测设置的文献很少。在本文中,我们提供了一个通用算法框架,用于在线涵盖多个预测的问题,该框架获得了在线解决方案,该解决方案具有与最佳预测指标的性能相对的竞争力。我们的算法将预测的使用纳入了在线算法的经典分析中。我们应用算法框架来解决经典问题,例如在线封面,(加权)缓存和在线设施位置,以在多个预测设置中。我们的算法也可以鲁棒化,即,可以根据最佳的预测和最佳在线算法的性能(无预测)同时使算法具有竞争力。
translated by 谷歌翻译
The research area of algorithms with predictions has seen recent success showing how to incorporate machine learning into algorithm design to improve performance when the predictions are correct, while retaining worst-case guarantees when they are not. Most previous work has assumed that the algorithm has access to a single predictor. However, in practice, there are many machine learning methods available, often with incomparable generalization guarantees, making it hard to pick a best method a priori. In this work we consider scenarios where multiple predictors are available to the algorithm and the question is how to best utilize them. Ideally, we would like the algorithm's performance to depend on the quality of the best predictor. However, utilizing more predictions comes with a cost, since we now have to identify which prediction is the best. We study the use of multiple predictors for a number of fundamental problems, including matching, load balancing, and non-clairvoyant scheduling, which have been well-studied in the single predictor setting. For each of these problems we introduce new algorithms that take advantage of multiple predictors, and prove bounds on the resulting performance.
translated by 谷歌翻译
分布式机器学习的传统方法是将学习算法调整到网络中,例如减少更新以遏制开销。相反,基于智能边缘的网络使得可以遵循相反的方法,即定义围绕要执行的学习任务的逻辑网络拓扑,以达到所需的学习表现。在本文中,我们提出了一个系统模型,该模型在监督机器学习的背景下捕获了此类方面,考虑了学习节点(执行计算)和信息节点(提供数据)。然后,我们制定了选择(i)的问题,哪些学习和信息节点应配合以完成学习任务,以及(ii)执行的迭代次数,以最大程度地减少学习成本,同时满足目标预测错误和执行时间。在证明了上述问题的重要属性之后,我们设计了一种名为DoubleClemb的算法,该算法可以找到1+1/| i | -competive解决方案(具有i是一组信息节点),具有分立最差的复杂性。我们的绩效评估,利用现实世界的网络拓扑并考虑分类和回归任务,还表明,双重攀登与最佳,优于最先进的替代方案非常匹配。
translated by 谷歌翻译
SemideFinite编程(SDP)是一个统一的框架,可以概括线性编程和四二次二次编程,同时在理论和实践中也产生有效的求解器。但是,当覆盖SDP的约束以在线方式到达时,存在近似最佳解决方案的已知结果。在本文中,我们研究了在线涵盖线性和半决赛程序,其中通过可能错误的预测指标的建议增强了算法。我们表明,如果预测变量是准确的,我们可以有效地绕过这些不可能的结果,并在最佳解决方案(即一致性)上实现恒定因素近似值。另一方面,如果预测变量不准确,在某些技术条件下,我们取得的结果既匹配经典的最佳上限和紧密的下限,则达到恒定因素,即稳健性。更广泛地,我们引入了一个框架,该框架既扩展了(1)由Bamas,Maggiori和Svensson(Neurips 2020)研究的机器学习预测变量增加的在线套装问题,以及(2)在线覆盖SDP问题,由SDP问题发起。 Elad,Kale和Naor(ICALP 2016)。具体而言,我们获得了一般的在线学习算法,用于涵盖具有分数建议和约束的线性程序,并启动学习启发算法以涵盖SDP问题的研究。我们的技术基于Buchbinder和NAOR的原始二次框架(操作研究的数学,34,2009),并且可以进一步调整以处理变量位于有限区域的约束,即框约束。
translated by 谷歌翻译
在线二手匹配是在线算法中的一个基本问题。目的是匹配两组顶点,以最大化边缘权重的总和,在该顶点中,对于一组顶点,每个顶点及其相应的边缘重量以序列形式出现。当前,在实际的建议系统或搜索引擎中,权重是由用户的深度表示与项目深度表示之间的内部产品决定的。标准的在线匹配需要支付$ nd $的时间来线性扫描所有$ n $项目,计算重量(假设每个表示向量都有长度$ d $),然后根据权重决定匹配。但是,实际上,$ n $可能很大,例如在在线电子商务平台中。因此,改善计算权重的时间是一个实践意义的问题。在这项工作中,我们为大约计算权重的理论基础提供了基础。我们表明,借助我们提出的随机数据结构,可以在额定时间内计算权重,同时仍保留匹配算法的竞争比率。
translated by 谷歌翻译
本文介绍了一种增强的元启发式(ML-ACO),将机器学习(ML)和蚁群优化(ACO)结合起来解决组合优化问题。为了说明我们ML-ACO算法的底层机制,我们首先描述测试问题,定向问题。在这个问题中,目的是找到一个路线,该路线在时间预算中在图中访问顶点的子集,以最大化收集的分数。在我们ML-ACO算法的第一阶段,使用一组小问题实例训练ML模型,其中已知最佳解决方案。具体地,分类模型用于将边缘分类为最佳路由的一部分,或不使用特定于问题的特征和统计测量。然后,训练模型用于预测测试问题实例图表中的边缘所属的概率属于相应的最优路由。在第二阶段,我们将预测的概率纳入我们算法的ACO组件,即,使用概率值作为启发式权重或者热启动信息素矩阵。这里,在构建可行的路线时偏向有利于这些预测的高质量边缘的概率值。我们已经测试了多种分类模型,包括图形神经网络,逻辑回归和支持向量机,实验结果表明,我们的解决方案预测方法一直促进ACO的性能。此外,我们经验证明我们在小型合成实例上培训的ML模型概括为大型合成和现实世界的情况。我们将ML与META-HEURISTIC集成的方法是通用的,可以应用于各种优化问题。
translated by 谷歌翻译
近年来,在平衡(超级)图分配算法的设计和评估中取得了重大进展。我们调查了过去十年的实用算法的趋势,用于平衡(超级)图形分区以及未来的研究方向。我们的工作是对先前有关该主题的调查的更新。特别是,该调查还通过涵盖了超图形分区和流算法来扩展先前的调查,并额外关注并行算法。
translated by 谷歌翻译
我们系统地研究了在乐观学习的背景下将整个文件存储在容量有限的缓存中的问题,在这种学习情况下,缓存策略可以访问预测甲骨文(例如,由神经网络提供)。连续的文件请求假定由对手生成,并且对Oracle的准确性没有任何假设。在这种情况下,我们为预测辅助在线缓存提供了通用的下限,并继续设计一套具有一系列性能复杂性权衡的政策。所有提议的政策都均均与甲骨文的准确性相称。我们的结果大大改善了所有最近提供的在线缓存政策,该政策无法利用Oracle预测,仅提供$ O(\ sqrt {t})$遗憾。在这种追求中,我们据我们所知,我们设计了第一个全面的乐观跟随领导者政策,该政策超出了缓存问题。我们还研究了具有不同尺寸的缓存文件和两部分网络缓存问题的问题。最后,我们通过使用现实世界痕迹进行广泛的数值实验来评估所提出的策略的功效。
translated by 谷歌翻译
我们在学习增强的设置中研究基本的在线K-Server问题。虽然在传统的在线模型中,算法没有关于请求序列的信息,我们假设在算法的决定上给出了一些建议(例如机器学习预测)。但是,没有保证预测的质量,可能远非正确。我们的主要结果是线路上的K-Server众所周知的双覆盖算法的学习变化(Chrobak等,Sidma 1991),我们将预测整合在一起,以及我们对其质量的信任。我们给出了错误依赖性的竞争比率,这是用户定义的置信度参数的函数,并且在最佳一致性之间平滑地插值,在所有预测是正确的情况下的性能,以及无论预测如何,都是最佳的鲁棒性质量。当给定良好的预测时,我们在没有建议的情况下改善在线算法的下限。我们进一步表明,我们的算法在一类关于局部和记忆属性的确定性算法中实现了任何K几乎最佳的一致性 - 鲁棒性权衡。我们的算法优于先前提出的(更通用的)学习增强算法。上一算法非常重要,这是至关重要的存储器,而我们的算法无记忆。最后,我们展示了实验性的实用性和算法在真实数据上的卓越性能。
translated by 谷歌翻译
We study the problem of graph clustering under a broad class of objectives in which the quality of a cluster is defined based on the ratio between the number of edges in the cluster, and the total weight of vertices in the cluster. We show that our definition is closely related to popular clustering measures, namely normalized associations, which is a dual of the normalized cut objective, and normalized modularity. We give a linear time constant-approximate algorithm for our objective, which implies the first constant-factor approximation algorithms for normalized modularity and normalized associations.
translated by 谷歌翻译
我们考虑在典型的非营利环境下的在线资源分配,其中限制甚至稀缺资源是由政府等非营利组织管理的。我们假设到达的请求者在其外部因素(如要求)的外部因素方面是同质的,我们专注于内部股权,这对于他们的内部属性等人口统计数据如此。具体而言,我们基于其人口统计数据(即种族,性别和年龄)与一个或多个群体联系起来的每个到达请求者,我们的目标是设计一种公平的分销策略,使得每组请求者都可以获得比例的资源公平份额预设目标比率。我们提出了两个基于LP的采样算法,从理论上(在竞争比例分析方面)进行了研究,并基于Minnesota健康部维护的真实Covid-19疫苗接种数据进行实验。理论和数值结果都表明,我们基于LP的抽样策略可以有效地促进公平,特别是当到达人口被表现不成比例地表示时,如在Covid-19疫苗卷展的早期所观察到的那样。
translated by 谷歌翻译
图形上的分层聚类是数据挖掘和机器学习中的一项基本任务,并在系统发育学,社交网络分析和信息检索等领域中进行了应用。具体而言,我们考虑了由于Dasgupta引起的层次聚类的最近普及的目标函数。以前(大约)最小化此目标函数的算法需要线性时间/空间复杂性。在许多应用程序中,底层图的大小可能很大,即使使用线性时间/空间算法,也可以在计算上具有挑战性。结果,人们对设计只能使用sublinear资源执行全局计算的算法有浓厚的兴趣。这项工作的重点是在三个经过良好的sublinear计算模型下研究大量图的层次聚类,分别侧重于时空,时间和通信,作为要优化的主要资源:(1)(动态)流模型。边缘作为流,(2)查询模型表示,其中使用邻居和度查询查询图形,(3)MPC模型,其中图边缘通过通信通道连接的几台机器进行了分区。我们在上面的所有三个模型中设计用于层次聚类的sublinear算法。我们算法结果的核心是图表中的剪切方面的视图,这使我们能够使用宽松的剪刀示意图进行分层聚类,同时仅引入目标函数中的较小失真。然后,我们的主要算法贡献是如何在查询模型和MPC模型中有效地构建所需形式的切割稀疏器。我们通过建立几乎匹配的下限来补充我们的算法结果,该界限排除了在每个模型中设计更好的算法的可能性。
translated by 谷歌翻译
在线算法是算法设计中的重要分支。设计具有有界竞争比率的在线算法(在最坏情况性能方面)可能是艰难的并且通常依赖于特定于问题的假设。由生成对抗净净净(GAN)的对抗训练的启发和在线算法的竞争比率基于最坏情况的输入,我们采用深度神经网络来学习从头开始进行资源分配和定价问题的在线算法对于最坏情况的输入,可以最小化离线最佳和学习的在线算法之间的性能差距的目标。具体而言,我们分别利用两个神经网络作为算法和对手,让他们播放零和游戏,而对验证负责产生最坏情况的输入,而算法基于对手提供的输入学习最佳策略。为了确保算法网络的更好收敛(到所需的在线算法),我们提出了一种新颖的每轮更新方法来处理顺序决策,以便在不同的回合中断复杂依赖性,以便可以为每种可能的动作完成更新,而不是只有采样的行动。据我们所知,我们的作品是首次使用深度神经网络来设计一个在最坏情况性能保证的角度的在线算法。实证研究表明,我们的更新方法确保了纳什均衡的融合,并且学习算法在各种设置下优于最先进的在线算法。
translated by 谷歌翻译
在使用提供明确定义的隐私保证的用户数据时,至关重要。在这项工作中,我们旨在与第三方私下操纵和分享整个稀疏数据集。实际上,差异隐私已成为隐私的黄金标准,但是,当涉及到稀疏数据集时,作为我们的主要结果之一,我们证明\ emph {any}与最初的私人机制有差异化的私人机制数据集注定要拥有非常薄弱的隐私保证。因此,我们需要选择其他隐私概念,例如$ k $ - 匿名性更好地在这种情况下保存实用程序。在这项工作中,我们介绍了$ k $ - 匿名的变体,我们称之为平滑$ k $ - 匿名和设计简单算法,可有效地提供平滑的$ k $ - 匿名性。我们进一步执行经验评估以支持我们的理论保证,并表明我们的算法改善了匿名数据下游机器学习任务的性能。
translated by 谷歌翻译
通过边界估计可以显着简化求解约束优化问题(COP),即提供成本函数的紧密边界。通过使用由已知边界的数据组成的数据以及COMPS提取的特征来馈送监督机器学习(ML)模型,可以训练模型以估计新COP实例的边界。在本文中,我们首先概述了来自问题实例的约束编程(CP)的ML的现有知识体系。其次,我们介绍了应用于支持CP解算器的工具的边界估计框架。在该框架内,讨论并评估了不同的ML模型,并评估其对边界估计的适用性,并避免避免求解器找到最佳解决方案的不可行估计的对策。第三,我们在七个警察中提出了一种实验研究,与不同的CP溶剂。我们的结果表明,可以仅限于这些警察的近似最佳边界。这些估计的边界将客观域大小减少60-88%,可以帮助求解器在搜索期间提前找到近乎最佳解决方案。
translated by 谷歌翻译