我们考虑固定预算的最佳手臂识别问题,目标是找到具有固定数量样本的最大均值的手臂。众所周知,错误识别最好的手臂的概率对巡回赛的数量成倍小。但是,已经讨论了有关此值的速率(指数)的有限特征。在本文中,我们表征了由于所有可能的参数的全局优化而导致的最佳速率。我们介绍了两个费率,$ r^{\ mathrm {go}} $和$ r^{\ mathrm {go}} _ {\ infty} $,对应于错误识别概率的下限,每种范围都与A建议的算法。费率$ r^{\ mathrm {go}} $与$ r^{\ mathrm {go}} $ - 跟踪相关联,可以通过神经网络有效地实现,并显示出胜过现有的算法。但是,此速率要求可以实现非平凡的条件。为了解决这个问题,我们介绍了第二个速率$ r^{\ mathrm {go}} _ \ infty $。我们表明,通过引入一种称为延迟最佳跟踪(DOT)的概念算法,确实可以实现此速率。
translated by 谷歌翻译
我们考虑使用未知差异的双臂高斯匪徒的固定预算最佳臂识别问题。当差异未知时,性能保证与下限的性能保证匹配的算法最紧密的下限和算法的算法很长。当算法不可知到ARM的最佳比例算法。在本文中,我们提出了一种策略,该策略包括在估计的ARM绘制的目标分配概率之后具有随机采样(RS)的采样规则,并且使用增强的反概率加权(AIPW)估计器通常用于因果推断文学。我们将我们的战略称为RS-AIPW战略。在理论分析中,我们首先推导出鞅的大偏差原理,当第二次孵化的均值时,可以使用,并将其应用于我们提出的策略。然后,我们表明,拟议的策略在错误识别的可能性达到了Kaufmann等人的意义上是渐近最佳的。 (2016)当样品尺寸无限大而双臂之间的间隙变为零。
translated by 谷歌翻译
我们在随机多臂匪徒问题中使用固定预算和上下文(协变)信息研究最佳武器识别。在观察上下文信息之后,在每一轮中,我们使用过去的观察和当前上下文选择一个治疗臂。我们的目标是确定最好的治疗组,这是一个在上下文分布中被边缘化的最大预期奖励的治疗组,而错误识别的可能性最小。首先,我们为此问题得出半参数的下限,在这里我们将最佳和次优的治疗臂的预期奖励之间的差距视为感兴趣的参数,以及所有其他参数,例如在上下文中的预期奖励,作为滋扰参数。然后,我们开发“上下文RS-AIPW策略”,该策略由随机采样(RS)规则组成,跟踪目标分配比和使用增强反向概率加权(AIPW)估算器的建议规则。我们提出的上下文RS-AIPW策略是最佳的,因为错误识别概率的上限与预算到Infinity时的半参数下限相匹配,并且差距趋于零。
translated by 谷歌翻译
我们在随机匪徒上使用时(协变量)信息时,我们研究了固定信道的最佳武器识别问题。虽然我们可以在每轮中使用上下文信息,但我们对在语境分布上的边缘化平均奖励感兴趣。我们的目标是在给定值的错误率下识别最少数量的采样。我们显示出问题的特定实例的示例复杂性下限。然后,我们提出了一个“跟踪和停止”策略的上下文知识版本,其中ARM的比例绘制追踪一组最佳分配,并证明预期的ARM绘制数与渐近的下限匹配。我们证明,与Garivier&Kaufmann(2016)的结果相比,可以使用上下文信息来提高最佳边缘化平均奖励的效率。我们通过实验证实了上下文信息有助于更快的最佳武器识别。
translated by 谷歌翻译
出现了前两种算法,作为汤普森采样对多臂匪徒模型中最佳手臂识别的适应(Russo,2016),用于武器的参数家族。他们通过在两个候选臂,一个领导者和一个挑战者中随机化来选择下一个要采样的臂。尽管具有良好的经验表现,但仅当手臂是具有已知差异的高斯时,才能获得固定信心最佳手臂识别的理论保证。在本文中,我们提供了对两种方法的一般分析,该方法确定了领导者,挑战者和武器(可能是非参数)分布的理想特性。结果,我们获得了理论上支持的前两种算法,用于具有有限分布的最佳臂识别。我们的证明方法特别证明了用于选择从汤普森采样继承的领导者的采样步骤可以用其他选择代替,例如选择经验最佳的臂。
translated by 谷歌翻译
We investigate the sample complexity of learning the optimal arm for multi-task bandit problems. Arms consist of two components: one that is shared across tasks (that we call representation) and one that is task-specific (that we call predictor). The objective is to learn the optimal (representation, predictor)-pair for each task, under the assumption that the optimal representation is common to all tasks. Within this framework, efficient learning algorithms should transfer knowledge across tasks. We consider the best-arm identification problem for a fixed confidence, where, in each round, the learner actively selects both a task, and an arm, and observes the corresponding reward. We derive instance-specific sample complexity lower bounds satisfied by any $(\delta_G,\delta_H)$-PAC algorithm (such an algorithm identifies the best representation with probability at least $1-\delta_G$, and the best predictor for a task with probability at least $1-\delta_H$). We devise an algorithm OSRL-SC whose sample complexity approaches the lower bound, and scales at most as $H(G\log(1/\delta_G)+ X\log(1/\delta_H))$, with $X,G,H$ being, respectively, the number of tasks, representations and predictors. By comparison, this scaling is significantly better than the classical best-arm identification algorithm that scales as $HGX\log(1/\delta)$.
translated by 谷歌翻译
我们考虑使用正常奖励分布的固定预算最佳武器识别问题。在此问题中,预报员将获得$ K $臂(或治疗)和$ t $时间步骤。预报员试图通过使用算法进行的自适应实验来找到最大的均值,以最大的均值定义。该算法的性能是通过简单的遗憾(即估计的最佳臂的质量)来衡量的。常见的简单遗憾可能是指数级至$ t $的,而贝叶斯简单的遗憾在多项式上很小至$ t $。本文表明,贝叶斯的最佳算法使贝叶斯简单的遗憾最小化,并不会对某些参数产生指数的简单遗憾,这一发现与许多结果形成了鲜明的对比,表明贝叶斯和频繁的算法在固定采样制度的上下文中的渐近等效性。虽然贝叶斯最佳算法是用递归方程式来描述的,而递归方程实际上是不可能准确地计算的,但我们通过引入一个称为预期的Bellman改进的关键数量来建立进一步分析的基础。
translated by 谷歌翻译
本文研究了固定置信度设置中随机多臂匪徒中最佳的手臂识别(BAI)问题。考虑到指数匪徒的一般类。指数匪徒家族的最先进算法面临计算挑战。为了缓解这些挑战,提出了一个新颖的框架,该框架将BAI问题视为顺序假设测试,并且可以适合针对指数的土匪家族的可拖动分析。基于此框架,设计了BAI算法,以利用规范顺序概率比测试。该算法在两种设置中都具有三个功能:(1)其样本复杂性在渐近上是最佳的,(2)保证它是$ \ delta- $ pac,(3)它解决了最先进的计算挑战 - 艺术方法。具体而言,这些方法仅专注于高斯环境,需要从汤普森(Thompson)的手臂上进行采样,而这些方法被认为是最好的和挑战者的手臂。本文分析表明,识别挑战者在计算上是昂贵的,并且提出的算法对其进行了规定。最后,提供了数值实验来支持分析。
translated by 谷歌翻译
在纯探索问题中,依次收集信息以回答关于随机环境的问题。虽然近年来对线性匪徒的最佳武器识别进行了广泛的研究,但很少有作品专门用于识别一只手臂,即$ \ varepsilon $ close close close to to to to to to n of the $ \ varepsilon $ close(也不是最好的一只)。在这个有几个正确答案的问题中,识别算法应重点放在这些答案之间的一个候选人上,并验证其正确。我们证明,以最高平均值选择答案不允许算法就预期的样本复杂性达到渐近最优性。相反,应识别\ textit {最远的答案}。使用该洞察力仔细选择候选人答案,我们开发了一个简单的过程,以适应最佳臂识别算法,以应对托管线性随机匪徒中的$ \ varepsilon $ best-best-andwer识别。最后,我们为此设置提出了一种渐近最佳算法,该算法证明可以针对现有的改良最佳臂识别算法实现竞争性的经验性能。
translated by 谷歌翻译
关于强盗算法最佳设计的许多文献都是基于最小化预期遗憾的基础。众所周知,在某些指数家庭中最佳的设计可以实现预期的遗憾,即以LAI-ROBBINS下降的速度在ARM游戏数量上进行对数增长。在本文中,我们表明,当人们使用这种优化的设计时,相关算法的遗憾分布必然具有非常沉重的尾巴,特别是cauchy分布的尾巴。此外,对于$ p> 1 $,遗憾分布的$ p $'瞬间增长速度要比多层型的速度快得多,尤其是作为ARM播放总数的力量。我们表明,优化的UCB强盗设计在另一种意义上也是脆弱的,即,当问题甚至略有指定时,遗憾的增长可能比传统理论所建议的要快得多。我们的论点是基于标准的量化想法,并表明最有可能的遗憾变得比预期的要大的方法是最佳手臂在前几只手臂比赛中返回低于平均水平的奖励,从而导致算法相信这一点手臂是最佳的。为了减轻暴露的脆弱性问题,我们表明可以修改UCB算法,以确保对错误指定的理想程度。在此过程中,我们还提供了UCB勘探数量与产生后悔分布的尾声之间的巨大权衡。
translated by 谷歌翻译
本文提出了新的偏差不等式,其在多武装强盗模型中的自适应采样下均匀地均匀。使用给定的一维指数家庭中的kullback-leibler发散来测量偏差,并且可以一次考虑几个臂。它们是通过基于分层的每个臂鞅构造而构建的,并通过将那些鞅乘以来获得。我们的偏差不平等允许我们根据广义概率比来分析一大类连续识别问题的概要概率比,并且为臂的装置的某些功能构造紧密的置信区间。
translated by 谷歌翻译
积极的学习方法在减少学习所需的样本数量方面表现出了巨大的希望。随着自动化学习系统被采用到实时的现实世界决策管道中,越来越重要的是,这种算法的设计考虑到了安全性。在这项工作中,我们研究了在互动环境中学习最佳安全决定的复杂性。我们将这个问题减少到约束的线性匪徒问题,我们的目标是找到满足某些(未知)安全限制的最佳手臂。我们提出了一种基于自适应的实验性设计算法,在显示ARM的难度与次优的难度之间,我们表现出了有效的交易。据我们所知,我们的结果是具有安全限制的线性匪徒最佳武器识别。实际上,我们证明了这种方法在合成和现实世界数据集上的表现很好。
translated by 谷歌翻译
我们考虑激励探索:一种多臂匪徒的版本,其中武器的选择由自私者控制,而算法只能发布建议。该算法控制信息流,信息不对称可以激励代理探索。先前的工作达到了最佳的遗憾率,直到乘法因素,这些因素根据贝叶斯先验而变得很大,并在武器数量上成倍规模扩展。采样每只手臂的一个更基本的问题一旦遇到了类似的因素。我们专注于激励措施的价格:出于激励兼容的目的,绩效的损失,广泛解释为。我们证明,如果用足够多的数据点初始化,则标准的匪徒汤普森采样是激励兼容的。因此,当收集这些数据点时,由于激励措施的绩效损失仅限于初始回合。这个问题主要降低到样本复杂性的问题:需要多少个回合?我们解决了这个问题,提供了匹配的上限和下限,并在各种推论中实例化。通常,最佳样品复杂性在“信念强度”中的武器数量和指数中是多项式。
translated by 谷歌翻译
我们考虑在多武装匪徒问题中拜耳最佳武器识别。假设先前的某些连续性条件,我们表征了贝叶斯简单遗憾的速度。与贝叶斯遗憾的不同(Lai,1987),贝叶斯简单遗憾的主要因素来自最佳和次优臂之间的差距小于$ \ sqrt {\ frac {\ log t} {t}}$。我们提出了一种简单且易于计算的算法,其前导因子与下限达到恒定因子;仿真结果支持我们的理论发现。
translated by 谷歌翻译
我们考虑一个人口,分成一套社区,并研究通过顺序,随机抽样在人口中识别人群中最大的社区的问题。有多个采样域,也称为\ emph {boxes},该域也会分区群体。每个盒子都可以包括不同社区的个人,每个社区可能又可以跨多个盒子传播。学习代理可以随时使用(用替换)来自任何所选框的随机单独的单个;完成此操作后,代理学会了采样的个人所属的社区,以及此个人是否已被采样。代理的目标是通过优化采样策略以及决策规则来最大限度地减少错误识别最大社区的概率。我们提出并分析了这个问题的新算法,并且还在任何算法下建立了误差概率的信息理论下限。在几个兴趣的情况下,我们算法下误差概率的指数衰减率显示为最佳到恒定因素。所提出的算法通过实际数据集的模拟进一步验证。
translated by 谷歌翻译
我们研究了生存的匪徒问题,这是Perotto等人在开放问题中引入的多臂匪徒问题的变体。(2019年),对累积奖励有限制;在每个时间步骤中,代理都会获得(可能为负)奖励,如果累积奖励变得低于预先指定的阈值,则该过程停止,并且这种现象称为废墟。这是研究可能发生毁灭但并非总是如此的框架的第一篇论文。我们首先讨论,在对遗憾的天真定义下,统一的遗憾是无法实现的。接下来,我们就废墟的可能性(以及匹配的策略)提供紧密的下限。基于此下限,我们将生存后悔定义为最小化和提供统一生存后悔的政策的目标(至少在整体奖励的情况下),当时Time Horizon $ t $是已知的。
translated by 谷歌翻译
在随机上下文的强盗设置中,对遗憾最小化算法进行了广泛的研究,但是他们的实例最少的最佳武器识别对应物仍然很少研究。在这项工作中,我们将重点关注$(\ epsilon,\ delta)$ - $ \ textit {pac} $设置:给定策略类$ \ pi $,学习者的目标是返回策略的目标, $ \ pi \ in \ pi $的预期奖励在最佳政策的$ \ epsilon $之内,概率大于$ 1- \ delta $。我们表征了第一个$ \ textit {实例依赖性} $ PAC样品通过数量$ \ rho _ {\ pi} $的上下文匪徒的复杂性,并根据$ \ rho _ {\ pi} $提供匹配的上和下限不可知论和线性上下文最佳武器标识设置。我们表明,对于遗憾的最小化和实例依赖性PAC而言,无法同时最小化算法。我们的主要结果是一种新的实例 - 最佳和计算有效算法,该算法依赖于多项式呼叫对Argmax Oracle的调用。
translated by 谷歌翻译
我们提出了置信度序列 - 置信区间序列,其均匀地随时间均匀 - 用于基于I.I.D的流的完整,完全有序集中的任何分布的量级。观察。我们提供用于跟踪固定定量的方法并同时跟踪所有定量。具体而言,我们提供具有小常数的明确表达式,其宽度以尽可能快的$ \ SQRT {t} \ log \ log t} $率,以及实证分布函数的非渐近浓度不等式以相同的速率均匀地持续持续。后者加强了Smirnov迭代对数的实证过程法,延长了DVORETZKY-KIEFER-WOLFOITZ不等式以均匀地保持一段时间。我们提供了一种新的算法和样本复杂性,用于在多武装强盗框架中选择具有大约最佳定量的臂。在仿真中,我们的方法需要比现有方法更少五到五十的样品。
translated by 谷歌翻译
知识梯度(KG)算法是最佳手臂识别(BAI)问题的流行且有效的算法。由于KG的复杂计算,该算法的理论分析很困难,现有结果主要是关于IT的渐近性能,例如一致性,渐近样本分配等。在这项研究中,我们提供了有关有限的新理论结果。 - KG算法的时间性能。在独立和正常分布的奖励下,我们得出了下限和上限,以使算法的错误和简单的遗憾。通过这些界限,现有的渐近结果变成了简单的推论。我们还显示了多臂强盗(MAB)问题的算法的性能。这些发展不仅扩展了KG算法的现有分析,而且还可以用于分析其他基于改进的算法。最后,我们使用数值实验进一步证明了KG算法的有限时间行为。
translated by 谷歌翻译
我们研究固定预算设置中线性匪徒中最佳手臂识别的问题。通过利用G-Optimal设计的属性并将其纳入ARM分配规则,我们设计了一种无参数算法,基于最佳设计的基于设计的线性最佳臂识别(OD-Linbai)。我们提供了OD-Linbai的失败概率的理论分析。 OD-Linbai的性能并非所有最优差距,而是取决于顶部$ d $臂的差距,其中$ d $是线性匪徒实例的有效维度。补充,我们为此问题提供了一个Minimax下限。上限和下限表明,OD-Linbai是最佳的最佳选择,直到指数中的恒定乘法因素,这是对现有方法的显着改进(例如,贝耶斯加普,和平,线性化和GSE),并解决了确定确定该问题的问题。在固定预算设置中学习最好的手臂的困难。最后,数值实验表明,对各种真实和合成数据集的现有算法进行了相当大的经验改进。
translated by 谷歌翻译