我们考虑自适应 - 调节功能的最低成本覆盖率的问题,并提供4(ln Q+1) - approximation算法,其中Q是目标值。该结合几乎是最好的,因为该问题不能接受比LN Q更好的近似值(除非p = np)。我们的结果是该问题的第一个O(LN Q) - Approximation算法。以前,o(ln q)近似算法仅假设独立项目或单位成本项目是已知的。此外,我们的结果很容易扩展到想要同时覆盖多个自适应 - 调节函数的设置:我们获得了此概括的第一个近似算法。
translated by 谷歌翻译
顺序决策问题的目的是设计一种自适应选择一组项目的交互式策略,每个选择都是基于过去的反馈,以最大程度地提高所选项目的预期效用。已经表明,许多现实世界应用的实用程序功能都是自适应的。但是,大多数关于自适应下调优化的现有研究都集中在平均案例上。不幸的是,在最糟糕的案例实现下,具有良好平均表现的政策可能表现较差。在这项研究中,我们建议研究两种自适应下调优化问题的变体,即最坏情况下的自适应下二一个最大化和鲁棒的下二一个最大化。第一个问题旨在找到一项最大化最坏情况的政策,后者旨在找到一项政策(如果有的话),同时可以同时实现接近最佳的平均效用和最差的效用。我们引入了一类新的随机函数,称为\ emph {worst-case subsodular函数}。对于最严重的自适应性次传导性最大化问题,但要受到$ p $系统约束的约束,我们制定了一种自适应的最坏情况贪婪的贪婪政策,该政策实现了$ \ frac {1} {p+1} $近似值案例实用程序如果效用函数是最差的子模型。对于稳健的自适应下调最大化问题,但受到基数约束(分区矩阵约束),如果效用函数既是最坏情况下的casase subsodular and Adaptive subsodular,否 - \ frac {1} {2}}} $(分别$ 1/3 $)在最坏情况下和平均案例设置下同时。我们还描述了我们的理论结果的几种应用,包括池碱积极学习,随机的下套装覆盖和自适应病毒营销。
translated by 谷歌翻译
许多顺序决策问题可以作为自适应的下管最大化问题。但是,该领域中的大多数现有研究都集中在基于池的设置上,在该设置中,人们可以按任何顺序选择项目,而对于基于流的设置,项目以任意顺序到达,并且必须立即确定是否可以立即决定在到达时选择或不选择项目。在本文中,我们介绍了一类新的实用程序功能,即半准时函数。我们开发了一系列有效的算法,以最大程度地提高基于流的设置下的半脉冲下函数。
translated by 谷歌翻译
典型的自适应顺序决策问题的目标是根据一些部分观察来设计一个交互策略,该策略根据一些部分观察来顺序选择一组项目,以最大化预期的实用程序。已经表明,许多实际应用的实用功能,包括基于汇集的主动学习和自适应影响最大化,满足自适应子骨科的特性。然而,大多数关于自适应子模块最大化的研究重点关注完全自适应设置,即,必须等待从\ emph {all}过去选择之前的反馈。虽然这种方法可以充分利用过去过去的反馈,但是与非自适应解决方案相比,完成选择过程可能需要更长的时间来完成选择过程,其中在任何观察发生之前发生所有选择。在本文中,我们探讨了部分自适应子模块最大化的问题,其中允许同时在批处理中进行多种选择并一起观察它们的实现。我们的方法享有适应性的好处,同时减少了从过去选择等待观察的时间。据我们所知,没有结果对于非单调自适应子膜最大化问题的部分适应性政策。我们在基数限制和背包约束下研究了这个问题,并对这两种情况制定了有效和高效的解决方案。我们还分析了批量查询复杂性,即策略所需的批量次数,以便在一些额外的假设下完成选择过程。
translated by 谷歌翻译
在本文中,我们研究了经典的少量最大化问题,但在非自适应和适应性环境下都受到群体公平限制。已经表明,许多机器学习应用程序的效用函数,包括数据汇总,影响社交网络中的最大化和个性化建议,都满足了子义的属性。因此,在许多应用程序的核心中可以找到受到各种限制的最大化函数。在高水平上,少量最大化旨在选择一组大多数代表性项目(例如,数据点)。但是,大多数现有算法的设计并未包含公平的约束,从而导致某些特定组的不足或过分代表。这激发了我们研究公平的supsodular最大化问题,我们旨在选择一组项目,以最大化(可能是非单调的)suppodular效用功能,但要受群体公平约束。为此,我们为此问题开发了第一个常数因子近似算法。我们的算法的设计足够强大,可以扩展到更复杂的自适应设置下解决suppodular的最大化问题。此外,我们将研究进一步扩展到整合全球基础性约束。
translated by 谷歌翻译
在大型和快速增长的数据上运行机器学习算法通常是计算昂贵的,减少数据集大小的一个常见技巧,从而降低了机器学习算法的计算成本,是\ EMPH {概率采样}。它通过从具有已知概率的原始数据集中的每个数据点包括来自原始数据的每个数据点来创建采样的数据集。虽然在减少数据集上运行机器学习算法的好处是显而易见的,但一个主要问题是,在使用完整数据集时,从样本获得的解决方案的性能可能比最佳解决方案的性能更差。在本文中,我们在自适应子骨析最大化的背景下检查由概率采样引起的性能损失。我们考虑一个简单的概率采样方法,它在[0,1] $中选择概率$ r \的每个数据点。如果我们设置采样率$ r = 1 $,我们的问题会减少基于原始完整数据集的解决方案。我们将采样间隙定义为从完整数据集获得的最佳解决方案之间的最大比率和从独立系统获得的样本获得的最佳解决方案。 %它捕获了由概率采样引起的最佳解决方案的性能损失。我们的主要贡献是表明,如果实用程序函数是policywise子模块,那么对于给定的采样率$ r $,采样差距是上限和下限的1美元/ r $。我们的结果立即含义是,如果我们可以基于采样的数据集找到$ \ alpha $-uppatimation解决方案(以$ r $以$ r $上采样),那么该解决方案实现了$ \ alpha r $近似率使用完整数据集时的最佳解决方案。
translated by 谷歌翻译
许多顺序决策问题,包括基于池的主动学习和自适应病毒营销,可以作为适应性的下调性最大化问题。关于自适应下调优化的大多数研究都集中在单调病例或非单调性病例上。具体而言,如果实用程序函数是单调的,并且自适应子管道,则\ cite {golovin2011Adaptive}制定了一种贪婪的策略,该策略可以达到$(1-1/e)$近似值,但要受到基数约束。如果实用程序函数是非单调性的,并且自适应子模块,则\ cite {tang2021beyond}表明,随机贪婪的策略达到了$ 1/e $ $ $的近似比,但受到基数约束。在这项工作中,我们旨在通过研究部分超声酮自适应下调最大化问题来概括上述结果。为此,我们介绍了[0,1] $中自适应单调性比率$ m \的表示法,以测量功能的单调性程度。我们的主要结果是表明,如果实用程序功能为$ M $ - 适应性单调和自适应子管道。值得注意的是,当$ m = 0 $和$ m = 1 $时,此结果将恢复上述$(1-1/e)$和$ 1/e $的近似值。我们进一步扩展了结果,以考虑背包约束。我们表明,如果实用程序功能为$ M $ $ - 适应性单调和自适应子模型,则基于抽样的策略的近似值为$(M+1)/10 $。我们结果的一个重要含义是,即使对于非马可分子实用程序函数,如果此函数与单调函数``clote'',我们仍然可以达到接近$(1-1/e)$的近似值。对于许多机器学习应用程序,其实用程序功能几乎是自适应单调的,这会改善性能界限。
translated by 谷歌翻译
我们在盒子值上相关的分布中重新审视经典的潘多拉盒(PB)问题。 ARXIV的最新工作:1911.01632获得了限制性类别的策略量持续近似算法,该策略以固定顺序访问框。在这项工作中,我们研究了近似最佳策略的复杂性,该策略可以根据迄今为止所看到的值适应下一步访问哪个框。我们的主要结果确定了PB的近似值等效性与研究良好的统一决策树(UDT)问题,从随机优化和Min-Sum Set封面的变体($ \ MATHCAL {MSSC} _F $)问题。对于支持$ M $的分布,UDT承认$ \ log M $近似值,而多项式时间的恒定因子近似是一个长期的开放问题,但在次指数时间内可以实现恒定的因子近似值(ARXIV:1906.11385)。我们的主要结果意味着PB和$ \ MATHCAL {MSSC} _F $具有相同的属性。我们还研究了一个案例,使价值分布更简洁地作为$ m $产品分布的混合物。这个问题再次与最佳决策树的嘈杂变体有关,该变体更具挑战性。我们给出一个恒定的因子近似值,该近似时间$ n^{\ tilde o(m^2/\ varepsilon^2)} $当每个盒子上的混合组件在电视距离中相同或通过$ \ varepsilon $在电视距离中相同或分开。
translated by 谷歌翻译
在本文中,我们研究了具有国家依赖的成本的受限随机潜水区最大化问题。我们的问题的输入是从已知概率分布中得出的状态(即,项目的边际贡献和项目成本)的一组项目。知道项目的实现状态的唯一方法是选择该项目。我们考虑两个约束,即,\ ich {内}和\ \ ich {super}约束。回想一下,每个项目都有一个状态相关的成本,并且内部约束指出所有所选项目的总\ emph {实现}成本不得超过预算。因此,内部约束是具有国家依赖的。另一方面,外部约束是与状态无关的。它可以表示为无论其状态如何,都可以作为一个向下封闭的选定项目系列。我们的目标是最大限度地提高内部和外部限制的目标函数。在较大的成本表明“效用”较大的假设下,我们向这个问题提出了恒定的近似解决方案。
translated by 谷歌翻译
在本文中,我们研究了具有国家依赖的成本和拒绝的新随机潜水柱最大化问题。我们的问题的输入是预算约束$ B $,以及一组项目(即项目的边际贡献和项目成本)的一组项目是从已知概率分布中汲取的。知道项目的实现状态的唯一方法是探测该项目。我们允许拒绝,即在探测项目并了解其实际状态后,我们必须立即决定是否将该项目添加到我们的解决方案中。我们的目标是顺序探测/选择最优秀的一组项目,以预算限制在所选项目的总成本上。我们对此问题提出了恒定的近似解决方案。我们表明我们的解决方案可以扩展到在线设置。
translated by 谷歌翻译
在招聘,晋升和大学录取等选择过程中,众所周知,候选人的种族,性别或性取向等社会质量属性的隐性偏见会造成持久的不平等,并减少决策者的总效用。已经提出了诸如鲁尼规则及其概括之类的干预措施,这些干预措施要求决策者至少选择每个受影响组的指定数量的个体,以减轻隐性偏见在选择中的不利影响。最近的工作已经确定,在每个人最多属于一个受影响的群体的情况下,这种较低的约束对于改善总效用可能非常有效。但是,在某些情况下,个人可能属于多个受影响的群体,因此,由于这种交叉性,面临更大的隐含偏见。我们考虑独立绘制的实用程序,并表明在相交的情况下,上述非交流约束只能在没有隐性偏见的情况下恢复可实现的总效用的一部分。另一方面,我们表明,如果一个人在交叉点上包含适当的下限约束,那么在没有隐式偏见的情况下,几乎所有实用程序都可以恢复。因此,相交的约束可以比减少尺寸的非相互作用方法可提供显着优势,以减少不平等。
translated by 谷歌翻译
Models for the processes by which ideas and influence propagate through a social network have been studied in a number of domains, including the diffusion of medical and technological innovations, the sudden and widespread adoption of various strategies in game-theoretic settings, and the effects of "word of mouth" in the promotion of new products. Motivated by the design of viral marketing strategies, Domingos and Richardson posed a fundamental algorithmic problem for such social network processes: if we can try to convince a subset of individuals to adopt a new product or innovation, and the goal is to trigger a large cascade of further adoptions, which set of individuals should we target?We consider this problem in several of the most widely studied models in social network analysis. The optimization problem of selecting the most influential nodes is NP-hard here. The two conference papers upon which this article is based (KDD 2003 and ICALP 2005) provide the first provable approximation guarantees for efficient algorithms. Using an The present article is an expanded version of two conference papers [51,52], which appeared in KDD 2003 and ICALP 2005, respectively.
translated by 谷歌翻译
我们考虑具有未知实用程序参数的多项式logit模型(MNL)下的动态分类优化问题。本文研究的主要问题是$ \ varepsilon $ - 污染模型下的模型错误指定,该模型是强大统计和机器学习中的基本模型。特别是,在整个长度$ t $的销售范围内,我们假设客户根据$(1- \ varepsilon)$ - 时间段的$(1- \ varepsilon)的基础多项式logit选择模型进行购买,并进行任意购买取而代之的是在剩余的$ \ varepsilon $ - 分数中的决策。在此模型中,我们通过主动淘汰策略制定了新的强大在线分类优化政策。我们对遗憾建立上限和下界,并表明当分类能力恒定时,我们的政策是$ t $的最佳对数因素。分类能力具有恒定的上限。我们进一步制定了一种完全自适应策略,该政策不需要任何先验知识,即污染参数$ \ varepsilon $。如果存在最佳和亚最佳产品之间存在的亚临时差距,我们还建立了依赖差距的对数遗憾上限和已知的 - $ \ VAREPSILON $和UNKNOWER-$ \ \ VAREPSILON $案例。我们的仿真研究表明,我们的政策表现优于基于上置信度范围(UCB)和汤普森采样的现有政策。
translated by 谷歌翻译
K-MEDIAN和K-MEACE是聚类算法的两个最受欢迎的目标。尽管有密集的努力,但对这些目标的近似性很好地了解,特别是在$ \ ell_p $ -metrics中,仍然是一个重大的开放问题。在本文中,我们在$ \ ell_p $ -metrics中显着提高了文献中已知的近似因素的硬度。我们介绍了一个名为Johnson覆盖假说(JCH)的新假设,这大致断言设定系统上的良好的Max K-Coverage问题难以近似于1-1 / e,即使是成员图形设置系统是Johnson图的子图。然后,我们展示了Cohen-Addad和Karthik引入的嵌入技术的概括(Focs'19),JCH意味着K-MEDIAN和K-MERION在$ \ ell_p $ -metrics中的近似结果的近似值的硬度为近距离对于一般指标获得的人。特别地,假设JCH我们表明很难近似K-Meator目标:$ \ Bullet $离散情况:$ \ ell_1 $ 3.94 - $ \ ell_2中的1.73因素为1.73倍$$ - 这分别在UGC下获得了1.56和1.17的先前因子。 $ \ bullet $持续案例:$ \ ell_1 $ 2210 - $ \ ell_2 $的$ \ ell_1 $ 210。$ \ ell_2 $-metric;这在UGC下获得的$ \ ell_2 $的$ \ ell_2 $的先前因子提高了1.07。对于K-Median目标,我们还获得了类似的改进。此外,我们使用Dinure等人的工作证明了JCH的弱版本。 (Sicomp'05)在超图顶点封面上,恢复Cohen-Addad和Karthik(Focs'19 Focs'19)上面的所有结果(近)相同的不可识别因素,但现在在标准的NP $ \ NEQ $ P假设下(代替UGC)。
translated by 谷歌翻译
在随着时间变化的组合环境中的在线决策激励,我们研究了将离线算法转换为其在线对应物的问题。我们专注于使用贪婪算法对局部错误的贪婪算法进行恒定因子近似的离线组合问题。对于此类问题,我们提供了一个通用框架,该框架可有效地将稳健的贪婪算法转换为使用Blackwell的易近算法。我们证明,在完整信息设置下,由此产生的在线算法具有$ O(\ sqrt {t})$(近似)遗憾。我们进一步介绍了Blackwell易接近性的强盗扩展,我们称之为Bandit Blackwell的可接近性。我们利用这一概念将贪婪的稳健离线算法转变为匪(t^{2/3})$(近似)$(近似)的遗憾。展示了我们框架的灵活性,我们将脱机之间的转换应用于收入管理,市场设计和在线优化的几个问题,包括在线平台中的产品排名优化,拍卖中的储备价格优化以及supperular tossodular最大化。 。我们还将还原扩展到连续优化的类似贪婪的一阶方法,例如用于最大化连续强的DR单调下调功能,这些功能受到凸约束的约束。我们表明,当应用于这些应用程序时,我们的转型会导致新的后悔界限或改善当前已知界限。我们通过为我们的两个应用进行数值模拟来补充我们的理论研究,在这两种应用中,我们都观察到,转换的数值性能在实际情况下优于理论保证。
translated by 谷歌翻译
在本文中,我们研究了汤普森采样(TS)方法的应用到随机组合多臂匪徒(CMAB)框架中。当所有基本臂的结果分布都是独立的,并获得$ o(m \ log k _ {\ max} \ log t / \ delta_时,我们首先分析一般CMAB模型的标准TS算法。 {\ min})$,其中$ m $是基本武器的数量,$ k _ {\ max} $是最大的超级臂的大小,$ t $是时间范围,而$ \ delta _ {\ min} $是最佳解决方案的预期奖励与任何非最佳解决方案之间的最小差距。这种遗憾的上限比$ o(m(\ log k _ {\ max})^2 \ log t / \ delta _ {\ min})$更好。此外,我们的新颖分析技术可以帮助收紧其他基于UCB的政策(例如ESC)的遗憾界限,因为我们改善了计算累积遗憾的方法。然后,我们考虑Matroid Bandit设置(CMAB模型的特殊类别),在这里我们可以删除跨武器的独立性假设,并实现与下限匹配的遗憾上限。除了遗憾的上限外,我们还指出,一个人不能直接替换确切的离线甲骨文(将离线问题实例的参数作为输入,并在此实例下输出确切的最佳操作),用TS算法中的近似oracle替换了ts算法的近似值。甚至经典的mAb问题。最后,我们使用一些实验来显示TS遗憾与其他现有算法之间的比较,实验结果表明TS优于现有基准。
translated by 谷歌翻译
在典型的优化问题中,任务是选择成本最低或最高价值的多个选项之一。实际上,这些成本/价值数量通常是通过诸如嘈杂的测量或机器学习等过程来实现的,具有可量化的噪声分布。要考虑到这些噪声分布,一种方法是假设值的先验,使用它来构建后部,然后应用标准随机优化来选择解决方案。但是,在许多实际应用中,此类先前的分布可能没有可用。在本文中,我们使用遗憾最小化模型研究了这种情况。在我们的模型中,任务是在$ n $值中选择最高的一个。这些值是未知的,并由对手选择,但是可以通过嘈杂的通道观察到,在噪声通道中,从已知的分布开始添加噪声。目的是最大程度地减少我们选择的遗憾,该遗憾定义为最高值选择的最高值和所选值之间的预期差异。我们表明,挑选最高观测值的na \“我的算法也对最佳级别的遗憾也后悔,即使$ n = 2 $,并且噪声是公正的。对于任何$ n $的最佳遗憾。我们的算法在概念上是简单的,计算上的效率,并且仅需要对噪声分布的最小知识。
translated by 谷歌翻译
在随机子集总和问题中,给定$ n $ i.i.d.随机变量$ x_1,...,x_n $,我们希望将[-1,1] $ in [-1,1] $的任何点$ z \作为合适子集的总和$ x_ {i_1(z)},...,x_ {i_s(z)} $的$,最多$ \ varepsilon $。尽管有简单的陈述,但这个问题还是理论计算机科学和统计力学的基本兴趣。最近,它因其在人工神经网络理论中的影响而引起了人们的重新关注。该问题的一个明显的多维概括是考虑$ n $ i.i.d. \ $ d $ - 二维随机向量,目的是近似于[-1,1]^d $的每个点$ \ Mathbf {z} \。令人惊讶的是,在Lueker的1998年证明,在一维设置中,$ n = o(\ log \ frac 1 \ varepsilon)$ samples $ samples $ samples具有很高可能性的近似属性,在实现上述概括方面几乎没有进展。在这项工作中,我们证明,在$ d $ dimensions中,$ n = o(d^3 \ log \ frac 1 \ varepsilon \ cdot(\ log \ frac 1 \ frac 1 \ varepsilon + log d d))$ samples $ sample近似属性具有很高的概率。作为强调该结果潜在兴趣的应用程序,我们证明了最近提出的神经网络模型表现出\ emph {通用}:具有很高的概率,该模型可以在参数数量中近似多项式开销中的任何神经网络。
translated by 谷歌翻译
我们考虑随机多武装强盗(MAB)问题,延迟影响了行动。在我们的环境中,过去采取的行动在随后的未来影响了ARM奖励。在现实世界中,行动的这种延迟影响是普遍的。例如,为某个社会群体中的人员偿还贷款的能力可能历史上历史上批准贷款申请的频率频率。如果银行将贷款申请拒绝拒绝弱势群体,则可以创建反馈循环,进一步损害该群体中获取贷款的机会。在本文中,我们制定了在多武装匪徒的背景下的行动延迟和长期影响。由于在学习期间,我们将强盗设置概括为对这种“偏置”的依赖性进行编码。目标是随着时间的推移最大化收集的公用事业,同时考虑到历史行动延迟影响所产生的动态。我们提出了一种算法,实现了$ \ tilde {\ mathcal {o}}的遗憾,并显示$ \ omega(kt ^ {2/3})$的匹配遗憾下限,其中$ k $是武器数量,$ t $是学习地平线。我们的结果通过添加技术来补充强盗文献,以处理具有长期影响的行动,并对设计公平算法有影响。
translated by 谷歌翻译
We study the following independence testing problem: given access to samples from a distribution $P$ over $\{0,1\}^n$, decide whether $P$ is a product distribution or whether it is $\varepsilon$-far in total variation distance from any product distribution. For arbitrary distributions, this problem requires $\exp(n)$ samples. We show in this work that if $P$ has a sparse structure, then in fact only linearly many samples are required. Specifically, if $P$ is Markov with respect to a Bayesian network whose underlying DAG has in-degree bounded by $d$, then $\tilde{\Theta}(2^{d/2}\cdot n/\varepsilon^2)$ samples are necessary and sufficient for independence testing.
translated by 谷歌翻译