顺序决策问题的目的是设计一种自适应选择一组项目的交互式策略,每个选择都是基于过去的反馈,以最大程度地提高所选项目的预期效用。已经表明,许多现实世界应用的实用程序功能都是自适应的。但是,大多数关于自适应下调优化的现有研究都集中在平均案例上。不幸的是,在最糟糕的案例实现下,具有良好平均表现的政策可能表现较差。在这项研究中,我们建议研究两种自适应下调优化问题的变体,即最坏情况下的自适应下二一个最大化和鲁棒的下二一个最大化。第一个问题旨在找到一项最大化最坏情况的政策,后者旨在找到一项政策(如果有的话),同时可以同时实现接近最佳的平均效用和最差的效用。我们引入了一类新的随机函数,称为\ emph {worst-case subsodular函数}。对于最严重的自适应性次传导性最大化问题,但要受到$ p $系统约束的约束,我们制定了一种自适应的最坏情况贪婪的贪婪政策,该政策实现了$ \ frac {1} {p+1} $近似值案例实用程序如果效用函数是最差的子模型。对于稳健的自适应下调最大化问题,但受到基数约束(分区矩阵约束),如果效用函数既是最坏情况下的casase subsodular and Adaptive subsodular,否 - \ frac {1} {2}}} $(分别$ 1/3 $)在最坏情况下和平均案例设置下同时。我们还描述了我们的理论结果的几种应用,包括池碱积极学习,随机的下套装覆盖和自适应病毒营销。
translated by 谷歌翻译
在大型和快速增长的数据上运行机器学习算法通常是计算昂贵的,减少数据集大小的一个常见技巧,从而降低了机器学习算法的计算成本,是\ EMPH {概率采样}。它通过从具有已知概率的原始数据集中的每个数据点包括来自原始数据的每个数据点来创建采样的数据集。虽然在减少数据集上运行机器学习算法的好处是显而易见的,但一个主要问题是,在使用完整数据集时,从样本获得的解决方案的性能可能比最佳解决方案的性能更差。在本文中,我们在自适应子骨析最大化的背景下检查由概率采样引起的性能损失。我们考虑一个简单的概率采样方法,它在[0,1] $中选择概率$ r \的每个数据点。如果我们设置采样率$ r = 1 $,我们的问题会减少基于原始完整数据集的解决方案。我们将采样间隙定义为从完整数据集获得的最佳解决方案之间的最大比率和从独立系统获得的样本获得的最佳解决方案。 %它捕获了由概率采样引起的最佳解决方案的性能损失。我们的主要贡献是表明,如果实用程序函数是policywise子模块,那么对于给定的采样率$ r $,采样差距是上限和下限的1美元/ r $。我们的结果立即含义是,如果我们可以基于采样的数据集找到$ \ alpha $-uppatimation解决方案(以$ r $以$ r $上采样),那么该解决方案实现了$ \ alpha r $近似率使用完整数据集时的最佳解决方案。
translated by 谷歌翻译
典型的自适应顺序决策问题的目标是根据一些部分观察来设计一个交互策略,该策略根据一些部分观察来顺序选择一组项目,以最大化预期的实用程序。已经表明,许多实际应用的实用功能,包括基于汇集的主动学习和自适应影响最大化,满足自适应子骨科的特性。然而,大多数关于自适应子模块最大化的研究重点关注完全自适应设置,即,必须等待从\ emph {all}过去选择之前的反馈。虽然这种方法可以充分利用过去过去的反馈,但是与非自适应解决方案相比,完成选择过程可能需要更长的时间来完成选择过程,其中在任何观察发生之前发生所有选择。在本文中,我们探讨了部分自适应子模块最大化的问题,其中允许同时在批处理中进行多种选择并一起观察它们的实现。我们的方法享有适应性的好处,同时减少了从过去选择等待观察的时间。据我们所知,没有结果对于非单调自适应子膜最大化问题的部分适应性政策。我们在基数限制和背包约束下研究了这个问题,并对这两种情况制定了有效和高效的解决方案。我们还分析了批量查询复杂性,即策略所需的批量次数,以便在一些额外的假设下完成选择过程。
translated by 谷歌翻译
许多顺序决策问题可以作为自适应的下管最大化问题。但是,该领域中的大多数现有研究都集中在基于池的设置上,在该设置中,人们可以按任何顺序选择项目,而对于基于流的设置,项目以任意顺序到达,并且必须立即确定是否可以立即决定在到达时选择或不选择项目。在本文中,我们介绍了一类新的实用程序功能,即半准时函数。我们开发了一系列有效的算法,以最大程度地提高基于流的设置下的半脉冲下函数。
translated by 谷歌翻译
在本文中,我们研究了经典的少量最大化问题,但在非自适应和适应性环境下都受到群体公平限制。已经表明,许多机器学习应用程序的效用函数,包括数据汇总,影响社交网络中的最大化和个性化建议,都满足了子义的属性。因此,在许多应用程序的核心中可以找到受到各种限制的最大化函数。在高水平上,少量最大化旨在选择一组大多数代表性项目(例如,数据点)。但是,大多数现有算法的设计并未包含公平的约束,从而导致某些特定组的不足或过分代表。这激发了我们研究公平的supsodular最大化问题,我们旨在选择一组项目,以最大化(可能是非单调的)suppodular效用功能,但要受群体公平约束。为此,我们为此问题开发了第一个常数因子近似算法。我们的算法的设计足够强大,可以扩展到更复杂的自适应设置下解决suppodular的最大化问题。此外,我们将研究进一步扩展到整合全球基础性约束。
translated by 谷歌翻译
许多顺序决策问题,包括基于池的主动学习和自适应病毒营销,可以作为适应性的下调性最大化问题。关于自适应下调优化的大多数研究都集中在单调病例或非单调性病例上。具体而言,如果实用程序函数是单调的,并且自适应子管道,则\ cite {golovin2011Adaptive}制定了一种贪婪的策略,该策略可以达到$(1-1/e)$近似值,但要受到基数约束。如果实用程序函数是非单调性的,并且自适应子模块,则\ cite {tang2021beyond}表明,随机贪婪的策略达到了$ 1/e $ $ $的近似比,但受到基数约束。在这项工作中,我们旨在通过研究部分超声酮自适应下调最大化问题来概括上述结果。为此,我们介绍了[0,1] $中自适应单调性比率$ m \的表示法,以测量功能的单调性程度。我们的主要结果是表明,如果实用程序功能为$ M $ - 适应性单调和自适应子管道。值得注意的是,当$ m = 0 $和$ m = 1 $时,此结果将恢复上述$(1-1/e)$和$ 1/e $的近似值。我们进一步扩展了结果,以考虑背包约束。我们表明,如果实用程序功能为$ M $ $ - 适应性单调和自适应子模型,则基于抽样的策略的近似值为$(M+1)/10 $。我们结果的一个重要含义是,即使对于非马可分子实用程序函数,如果此函数与单调函数``clote'',我们仍然可以达到接近$(1-1/e)$的近似值。对于许多机器学习应用程序,其实用程序功能几乎是自适应单调的,这会改善性能界限。
translated by 谷歌翻译
我们考虑自适应 - 调节功能的最低成本覆盖率的问题,并提供4(ln Q+1) - approximation算法,其中Q是目标值。该结合几乎是最好的,因为该问题不能接受比LN Q更好的近似值(除非p = np)。我们的结果是该问题的第一个O(LN Q) - Approximation算法。以前,o(ln q)近似算法仅假设独立项目或单位成本项目是已知的。此外,我们的结果很容易扩展到想要同时覆盖多个自适应 - 调节函数的设置:我们获得了此概括的第一个近似算法。
translated by 谷歌翻译
在本文中,我们研究了具有国家依赖的成本的受限随机潜水区最大化问题。我们的问题的输入是从已知概率分布中得出的状态(即,项目的边际贡献和项目成本)的一组项目。知道项目的实现状态的唯一方法是选择该项目。我们考虑两个约束,即,\ ich {内}和\ \ ich {super}约束。回想一下,每个项目都有一个状态相关的成本,并且内部约束指出所有所选项目的总\ emph {实现}成本不得超过预算。因此,内部约束是具有国家依赖的。另一方面,外部约束是与状态无关的。它可以表示为无论其状态如何,都可以作为一个向下封闭的选定项目系列。我们的目标是最大限度地提高内部和外部限制的目标函数。在较大的成本表明“效用”较大的假设下,我们向这个问题提出了恒定的近似解决方案。
translated by 谷歌翻译
在本文中,我们研究了具有国家依赖的成本和拒绝的新随机潜水柱最大化问题。我们的问题的输入是预算约束$ B $,以及一组项目(即项目的边际贡献和项目成本)的一组项目是从已知概率分布中汲取的。知道项目的实现状态的唯一方法是探测该项目。我们允许拒绝,即在探测项目并了解其实际状态后,我们必须立即决定是否将该项目添加到我们的解决方案中。我们的目标是顺序探测/选择最优秀的一组项目,以预算限制在所选项目的总成本上。我们对此问题提出了恒定的近似解决方案。我们表明我们的解决方案可以扩展到在线设置。
translated by 谷歌翻译
在随着时间变化的组合环境中的在线决策激励,我们研究了将离线算法转换为其在线对应物的问题。我们专注于使用贪婪算法对局部错误的贪婪算法进行恒定因子近似的离线组合问题。对于此类问题,我们提供了一个通用框架,该框架可有效地将稳健的贪婪算法转换为使用Blackwell的易近算法。我们证明,在完整信息设置下,由此产生的在线算法具有$ O(\ sqrt {t})$(近似)遗憾。我们进一步介绍了Blackwell易接近性的强盗扩展,我们称之为Bandit Blackwell的可接近性。我们利用这一概念将贪婪的稳健离线算法转变为匪(t^{2/3})$(近似)$(近似)的遗憾。展示了我们框架的灵活性,我们将脱机之间的转换应用于收入管理,市场设计和在线优化的几个问题,包括在线平台中的产品排名优化,拍卖中的储备价格优化以及supperular tossodular最大化。 。我们还将还原扩展到连续优化的类似贪婪的一阶方法,例如用于最大化连续强的DR单调下调功能,这些功能受到凸约束的约束。我们表明,当应用于这些应用程序时,我们的转型会导致新的后悔界限或改善当前已知界限。我们通过为我们的两个应用进行数值模拟来补充我们的理论研究,在这两种应用中,我们都观察到,转换的数值性能在实际情况下优于理论保证。
translated by 谷歌翻译
我们研究在线交互式强盗设置中的非模块化功能。我们是受到某些元素之间自然互补性的应用程序的动机:这仅使用只能代表元素之间竞争力的下函数来表达这一点。我们通过两种方式扩展了纯粹的下二次方法。首先,我们假设该物镜可以分解为单调下模量和超模块函数的总和,称为BP物镜。在这里,互补性自然是由超模型成分建模的。我们开发了UCB风格的算法,在每一轮比赛中,在采取行动以平衡对未知目标(探索)和选择似乎有希望的行动(剥削)的行动之间揭示的嘈杂收益。根据全知识的贪婪基线来定义遗憾和超模块化曲率,我们表明该算法最多可以在$ o(\ sqrt {t})$ hore $ t $ t $ t $ the $ t $ t $ the $ t $ t $ the $ the。其次,对于那些不承认BP结构的功能,我们提供了类似的遗憾保证,从其表现比率角度来看。这适用于几乎但不完全是子模型的功能。我们在数值上研究了Movielens数据集上电影推荐的任务,并选择用于分类的培训子集。通过这些示例,我们证明了该算法的性能以及将这些问题视为单次生管的缺点。
translated by 谷歌翻译
Models for the processes by which ideas and influence propagate through a social network have been studied in a number of domains, including the diffusion of medical and technological innovations, the sudden and widespread adoption of various strategies in game-theoretic settings, and the effects of "word of mouth" in the promotion of new products. Motivated by the design of viral marketing strategies, Domingos and Richardson posed a fundamental algorithmic problem for such social network processes: if we can try to convince a subset of individuals to adopt a new product or innovation, and the goal is to trigger a large cascade of further adoptions, which set of individuals should we target?We consider this problem in several of the most widely studied models in social network analysis. The optimization problem of selecting the most influential nodes is NP-hard here. The two conference papers upon which this article is based (KDD 2003 and ICALP 2005) provide the first provable approximation guarantees for efficient algorithms. Using an The present article is an expanded version of two conference papers [51,52], which appeared in KDD 2003 and ICALP 2005, respectively.
translated by 谷歌翻译
我们研究动态算法,以便在$ N $插入和删除流中最大化单调子模块功能的问题。我们显示任何维护$(0.5+ epsilon)$ - 在基数约束下的近似解决方案的算法,对于任何常数$ \ epsilon> 0 $,必须具有$ \ mathit {polynomial} $的摊销查询复杂性$ n $。此外,需要线性摊销查询复杂性,以维持0.584美元 - 批量的解决方案。这与近期[LMNF + 20,MON20]的最近动态算法相比,达到$(0.5- \ epsilon)$ - 近似值,与$ \ mathsf {poly} \ log(n)$摊销查询复杂性。在正面,当流是仅插入的时候,我们在基数约束下的问题和近似的Matroid约束下提供有效的算法,近似保证$ 1-1 / e-\ epsilon $和摊销查询复杂性$ \ smash {o (\ log(k / \ epsilon)/ \ epsilon ^ 2)} $和$ \ smash {k ^ {\ tilde {o}(1 / \ epsilon ^ 2)} \ log n} $,其中$ k $表示基数参数或Matroid的等级。
translated by 谷歌翻译
信号处理和机器学习中的许多问题都可以正面被形式化为弱子模块优化任务。对于此类问题,保证了一种简单的贪婪算法(\ textsc {greedy}),以找到实现目标的解决方案,其中值不到1-e ^ { - 1 / c} $的最佳值,其中$ c $乘法弱潜水解度常数。由于查询大规模系统的高成本,在当代应用中,\ Textsc {贪婪}的复杂性变得令人望而却步。在这项工作中,我们研究了随机采样策略的绩效和复杂性之间的权衡,以减少\ textsc的查询复杂性{greedy}。具体而言,我们通过两个度量来量化统一采样策略对\ textsc {贪婪}的性能的影响:(i)识别最佳子集的概率,(ii)相对于最佳解决方案的次优。后者意味着具有固定采样尺寸的均匀采样策略实现了非平凡的近似因子;但是,我们表明,通过压倒性概率,这些方法无法找到最佳子集。我们的分析表明,通过连续增加搜索空间的大小,可以避免具有固定样本大小的均匀采样策略的失败。建立这种洞察力,我们提出了一种简单的渐进式随机贪婪算法,并研究其近似保证。此外,我们展示了提出的方法在维度减少应用中的提出方法以及用于聚类和对象跟踪的特征选择任务。
translated by 谷歌翻译
Evolutionary algorithms (EAs) are general-purpose optimization algorithms, inspired by natural evolution. Recent theoretical studies have shown that EAs can achieve good approximation guarantees for solving the problem classes of submodular optimization, which have a wide range of applications, such as maximum coverage, sparse regression, influence maximization, document summarization and sensor placement, just to name a few. Though they have provided some theoretical explanation for the general-purpose nature of EAs, the considered submodular objective functions are defined only over sets or multisets. To complement this line of research, this paper studies the problem class of maximizing monotone submodular functions over sequences, where the objective function depends on the order of items. We prove that for each kind of previously studied monotone submodular objective functions over sequences, i.e., prefix monotone submodular functions, weakly monotone and strongly submodular functions, and DAG monotone submodular functions, a simple multi-objective EA, i.e., GSEMO, can always reach or improve the best known approximation guarantee after running polynomial time in expectation. Note that these best-known approximation guarantees can be obtained only by different greedy-style algorithms before. Empirical studies on various applications, e.g., accomplishing tasks, maximizing information gain, search-and-tracking and recommender systems, show the excellent performance of the GSEMO.
translated by 谷歌翻译
In this paper, we study the \underline{R}obust \underline{o}ptimization for \underline{se}quence \underline{Net}worked \underline{s}ubmodular maximization (RoseNets) problem. We interweave the robust optimization with the sequence networked submodular maximization. The elements are connected by a directed acyclic graph and the objective function is not submodular on the elements but on the edges in the graph. Under such networked submodular scenario, the impact of removing an element from a sequence depends both on its position in the sequence and in the network. This makes the existing robust algorithms inapplicable. In this paper, we take the first step to study the RoseNets problem. We design a robust greedy algorithm, which is robust against the removal of an arbitrary subset of the selected elements. The approximation ratio of the algorithm depends both on the number of the removed elements and the network topology. We further conduct experiments on real applications of recommendation and link prediction. The experimental results demonstrate the effectiveness of the proposed algorithm.
translated by 谷歌翻译
在招聘,晋升和大学录取等选择过程中,众所周知,候选人的种族,性别或性取向等社会质量属性的隐性偏见会造成持久的不平等,并减少决策者的总效用。已经提出了诸如鲁尼规则及其概括之类的干预措施,这些干预措施要求决策者至少选择每个受影响组的指定数量的个体,以减轻隐性偏见在选择中的不利影响。最近的工作已经确定,在每个人最多属于一个受影响的群体的情况下,这种较低的约束对于改善总效用可能非常有效。但是,在某些情况下,个人可能属于多个受影响的群体,因此,由于这种交叉性,面临更大的隐含偏见。我们考虑独立绘制的实用程序,并表明在相交的情况下,上述非交流约束只能在没有隐性偏见的情况下恢复可实现的总效用的一部分。另一方面,我们表明,如果一个人在交叉点上包含适当的下限约束,那么在没有隐式偏见的情况下,几乎所有实用程序都可以恢复。因此,相交的约束可以比减少尺寸的非相互作用方法可提供显着优势,以减少不平等。
translated by 谷歌翻译
我们考虑随机多武装强盗(MAB)问题,延迟影响了行动。在我们的环境中,过去采取的行动在随后的未来影响了ARM奖励。在现实世界中,行动的这种延迟影响是普遍的。例如,为某个社会群体中的人员偿还贷款的能力可能历史上历史上批准贷款申请的频率频率。如果银行将贷款申请拒绝拒绝弱势群体,则可以创建反馈循环,进一步损害该群体中获取贷款的机会。在本文中,我们制定了在多武装匪徒的背景下的行动延迟和长期影响。由于在学习期间,我们将强盗设置概括为对这种“偏置”的依赖性进行编码。目标是随着时间的推移最大化收集的公用事业,同时考虑到历史行动延迟影响所产生的动态。我们提出了一种算法,实现了$ \ tilde {\ mathcal {o}}的遗憾,并显示$ \ omega(kt ^ {2/3})$的匹配遗憾下限,其中$ k $是武器数量,$ t $是学习地平线。我们的结果通过添加技术来补充强盗文献,以处理具有长期影响的行动,并对设计公平算法有影响。
translated by 谷歌翻译
在机器学习中最大化的是一项基本任务,在本文中,我们研究了经典的Matroid约束下的删除功能强大版本。在这里,目标是提取数据集的小尺寸摘要,即使在对手删除了一些元素之后,该数据集包含高价值独立集。我们提出了恒定因素近似算法,其空间复杂性取决于矩阵的等级$ k $和已删除元素的数字$ d $。在集中式设置中,我们提出$(4.597+o(\ varepsilon))$ - 近似算法,带有摘要大小$ o(\ frac {k+d} {\ varepsilon^2} \ log \ log \ frac \ frac {k} })$将$(3.582 + o(\ varepsilon))$(k + \ frac {d} {\ varepsilon^2} \ log \ frac {k} {k} {\ varepsilon}) $摘要大小是单调的。在流设置中,我们提供$(9.435 + o(\ varepsilon))$ - 带有摘要大小和内存$ o的近似算法$(k + \ frac {d} {\ varepsilon^2} \ log \ log \ frac {k} {k} {k} {k} {k} {k} { \ varepsilon})$;然后,将近似因子提高到单调盒中的$(5.582+o(\ varepsilon))$。
translated by 谷歌翻译
设置子模块目标函数的优化问题具有许多现实世界应用。在离散场景中,在可以选择同一项目的情况下,域通过设置到有界整数格的2元素概括。在这项工作中,我们考虑最大化界限整数晶格上的单调子模块功能的问题,受到基数约束。特别是,我们专注于最大化D​​R-SubsoDular函数,即在整数格中定义的函数,该函数展示递减返回属性。给定任何epsilon> 0,我们介绍了一种随机算法的概率保证o(1 - 1 / e-epsilon)近似,使用由Mirzasoleiman等人开发的随机贪婪算法启发的框架。然后,我们表明,在合成DR-IMODOOMULAL功能上,在整数晶格上应用我们的建议算法比替代方案快,包括将目标问题还原到集合域,然后应用于最快的已知的集合子态最大化算法。
translated by 谷歌翻译