贝叶斯优化是解决昂贵评估的黑盒功能的全球优化问题的流行方法。它依赖于目标函数的概率替代模型,在该模型上构建了采集函数,以确定接下来在哪里评估目标函数。通常,使用高斯工艺回归的贝叶斯优化在连续空间上运行。当输入变量分类或离散时,需要额外的护理。一种常见的方法是将单热编码或布尔表示形式用于可能产生组合爆炸问题的分类变量。在本文中,我们提出了一种在组合空间中进行贝叶斯优化的方法,该方法可以在大型组合空间中运行良好。主要思想是使用一个随机映射,该映射将组合空间嵌入到连续空间中的凸多角形中,在该空间上,所有基本过程都会在组合空间中确定黑框优化的解决方案。我们描述了我们的组合贝叶斯优化算法,并介绍其遗憾分析。数值实验表明,与现有方法相比,我们的方法表现出令人满意的性能。
translated by 谷歌翻译
优化昂贵以评估黑盒功能在包含D对象的所有排列中的输入空间是许多真实应用的重要问题。例如,在硬件设计中放置功能块以通过仿真优化性能。总体目标是最小化函数评估的数量,以找到高性能的排列。使用贝叶斯优化(BO)框架解决这个问题的关键挑战是折衷统计模型的复杂性和采集功能优化的途径。在本文中,我们提出并评估了博的两个算法(BOPS)。首先,BOPS-T采用高斯工艺(GP)代理模型与KENDALL内核和基于Thompson采样的Trocable采集功能优化方法,以选择评估的排列顺序。其次,BOPS-H采用GP代理模型与锦葵内核和启发式搜索方法,以优化预期的改进采集功能。理论上,从理论上分析BOPS-T的性能,以表明他们的遗憾增加了亚线性。我们对多种综合和现实世界基准测试的实验表明,BOPS-T和BOPS-H均优于组合空间的最先进的BO算法。为了推动未来的对这个重要问题的研究,我们为社区提供了新的资源和现实世界基准。
translated by 谷歌翻译
由于其数据效率,贝叶斯优化已经出现在昂贵的黑盒优化的最前沿。近年来,关于新贝叶斯优化算法及其应用的发展的研究激增。因此,本文试图对贝叶斯优化的最新进展进行全面和更新的调查,并确定有趣的开放问题。我们将贝叶斯优化的现有工作分为九个主要群体,并根据所提出的算法的动机和重点。对于每个类别,我们介绍了替代模型的构建和采集功能的适应的主要进步。最后,我们讨论了开放的问题,并提出了有希望的未来研究方向,尤其是在分布式和联合优化系统中的异质性,隐私保护和公平性方面。
translated by 谷歌翻译
科学和工程中的复杂过程通常被制定为多阶段决策问题。在本文中,我们考虑了一种称为级联过程的多级决策过程。级联过程是一个多级过程,其中一个级的输出用作下一阶段的输入。当每个阶段的成本昂贵时,难以详尽地搜索每个阶段的最佳可控参数。为了解决这个问题,我们将级联过程的优化作为贝叶斯优化框架的延伸,提出了两种类型的采集功能(AFS),基于可靠的间隔和预期的改进。我们调查所提出的AFS的理论特性,并通过数值实验证明其有效性。此外,我们考虑一个被称为悬架设置的延伸,其中我们被允许在多阶段决策过程中暂停级联过程,这些过程经常出现在实际问题中。我们在太阳能电池模拟器的优化问题中应用提出的方法,这是本研究的动机。
translated by 谷歌翻译
基于内核的模型,例如内核脊回归和高斯工艺在机器学习应用程序中无处不在,用于回归和优化。众所周知,基于内核的模型的主要缺点是高计算成本。给定$ n $样本的数据集,成本增长为$ \ Mathcal {o}(n^3)$。在某些情况下,现有的稀疏近似方法可以大大降低计算成本,从而有效地将实际成本降低到$ \ natercal {o}(n)$。尽管取得了显着的经验成功,但由于近似值而导致的误差的分析范围的现有结果仍然存在显着差距。在这项工作中,我们为NyStr \“ Om方法和稀疏变分高斯过程近似方法提供新颖的置信区间,我们使用模型的近似(代理)后差解释来建立这些方法。我们的置信区间可改善性能。回归和优化问题的界限。
translated by 谷歌翻译
Many applications require optimizing an unknown, noisy function that is expensive to evaluate. We formalize this task as a multiarmed bandit problem, where the payoff function is either sampled from a Gaussian process (GP) or has low RKHS norm. We resolve the important open problem of deriving regret bounds for this setting, which imply novel convergence rates for GP optimization. We analyze GP-UCB, an intuitive upper-confidence based algorithm, and bound its cumulative regret in terms of maximal information gain, establishing a novel connection between GP optimization and experimental design. Moreover, by bounding the latter in terms of operator spectra, we obtain explicit sublinear regret bounds for many commonly used covariance functions. In some important cases, our bounds have surprisingly weak dependence on the dimensionality. In our experiments on real sensor data, GP-UCB compares favorably with other heuristical GP optimization approaches.
translated by 谷歌翻译
在预测功能(假设)中获得可靠的自适应置信度集是顺序决策任务的核心挑战,例如土匪和基于模型的强化学习。这些置信度集合通常依赖于对假设空间的先前假设,例如,繁殖核Hilbert Space(RKHS)的已知核。手动设计此类内核是容易发生的,错误指定可能导致性能差或不安全。在这项工作中,我们建议从离线数据(meta-kel)中进行元学习核。对于未知核是已知碱基核的组合的情况,我们基于结构化的稀疏性开发估计量。在温和的条件下,我们保证我们的估计RKHS会产生有效的置信度集,随着越来越多的离线数据的量,它变得与鉴于真正未知内核的置信度一样紧。我们展示了我们关于内核化强盗问题(又称贝叶斯优化)的方法,我们在其中建立了遗憾的界限,与鉴于真正的内核的人竞争。我们还经验评估方法对贝叶斯优化任务的有效性。
translated by 谷歌翻译
高赌注应用中产生的许多黑匣子优化任务需要风险厌恶的决策。但标准贝叶斯优化(BO)范式仅优化了预期值。我们概括了博的商业卑鄙和输入依赖性方差,我们认为我们认为是未知的先验。特别是,我们提出了一种新的风险厌恶异源贝类贝叶斯优化算法(Rahbo),其旨在识别具有高回报和低噪声方差的解决方案,同时在飞行时学习噪声分布。为此,我们将期望和方差模拟(未知)RKHS函数,并提出了一种新的风险感知获取功能。我们对我们的方法绑定了遗憾,并提供了一个强大的规则,以报告必须识别单个解决方案的应用程序的最终决策点。我们展示了Rahbo对合成基准函数和超参数调整任务的有效性。
translated by 谷歌翻译
最大值熵搜索(MES)是贝叶斯优化(BO)的最先进的方法之一。在本文中,我们提出了一种用于受约束问题的MES的新型变型,通过信息下限(CMES-IBO)称为受约束的ME,其基于互信息的下限的蒙特卡罗(MC)估计器(MI)。我们首先定义定义最大值的MI,以便它可以在可行性方面结合不确定性。然后,我们得出了保证非消极性的MI的下限,而传统ME的受约束对应物可以是负的。我们进一步提供了理论分析,确保我们估算者的低变异性,从未针对任何现有的信息理论博进行调查。此外,使用条件MI,我们将CMES-1BO扩展到并联设置,同时保持所需的性质。我们展示了CMES-IBO对多个基准功能和真实问题的有效性。
translated by 谷歌翻译
来自高斯过程(GP)模型的汤普森采样(TS)是一个强大的工具,用于优化黑盒功能。虽然TS享有强烈的理论担保和令人信服的实证性能,但它会引发大量的计算开销,可通过优化预算进行多项式。最近,已经提出了基于稀疏GP模型的可扩展TS方法来增加TS的范围,使其应用​​于足够多模态,嘈杂或组合需要的问题,以便要求解决超过几百个评估。但是,稀疏GPS引入的近似误差使所有现有的后悔界限无效。在这项工作中,我们对可扩展Ts进行了理论和实证分析。我们提供理论担保,并表明可以在标准TS上遗憾地享受可扩展TS的计算复杂性的急剧下降。这些概念索赔是针对合成基准测试的可扩展TS的实际实施,作为现实世界的高通量分子设计任务的一部分。
translated by 谷歌翻译
在工程和科学的许多领域中,优化多个混合变量,昂贵的黑盒问题的多个非首选目标很重要。这些问题的昂贵,嘈杂,黑盒的性质使它们成为贝叶斯优化(BO)的理想候选者。然而,由于BO的基础平稳的高斯工艺替代模型,混合变量和多目标问题是一个挑战。当前的多目标BO算法无法处理可混合变量的问题。我们提出了MixMobo,这是第一个用于此类问题的混合变量,多目标贝叶斯优化框架。使用MixMobo,可以有效地找到用于多目标,混合变量设计空间的最佳帕累托叶,同时确保多样化的解决方案。该方法足够灵活地结合了不同的内核和采集功能,包括其他作者为混合变量或多目标问题开发的函数。我们还提出了Hedgemo,这是一种修改后的对冲策略,该策略使用采集功能的投资组合来解决多目标问题。我们提出了新的采集功能,SMC。我们的结果表明,MixMobo在合成问题上针对其他可混合变量算法表现良好。我们将MixMobo应用于架构材料的现实世界设计,并表明我们的最佳设计是经过实验制造和验证的,其应变能密度$ 10^4 $ $ 10^4 $ $倍。
translated by 谷歌翻译
我们考虑基于嘈杂的强盗反馈优化黑盒功能的问题。内核强盗算法为此问题显示了强大的实证和理论表现。然而,它们严重依赖于模型所指定的模型,并且没有它可能会失败。相反,我们介绍了一个\ emph {isspecified}内塞的强盗设置,其中未知函数可以是$ \ epsilon $ - 在一些再现内核希尔伯特空间(RKHS)中具有界限范数的函数均匀近似。我们设计高效实用的算法,其性能在模型误操作的存在下最微小地降低。具体而言,我们提出了一种基于高斯过程(GP)方法的两种算法:一种乐观的EC-GP-UCB算法,需要了解误操作误差,并相断的GP不确定性采样,消除型算法,可以适应未知模型拼盘。我们在$ \ epsilon $,时间范围和底层内核方面提供累积遗憾的上限,我们表明我们的算法达到了$ \ epsilon $的最佳依赖性,而没有明确的误解知识。此外,在一个随机的上下文设置中,我们表明EC-GP-UCB可以有效地与遗憾的平衡策略有效地结合,尽管不知道$ \ epsilon $尽管不知道,但仍然可以获得类似的遗憾范围。
translated by 谷歌翻译
贝叶斯优化(BO)算法在涉及昂贵的黑盒功能的应用中表现出了显着的成功。传统上,BO被设置为一个顺序决策过程,该过程通过采集函数和先前的功能(例如高斯过程)来估计查询点的实用性。然而,最近,通过密度比率估计(BORE)对BO进行重新制定允许将采集函数重新诠释为概率二进制分类器,从而消除了对函数的显式先验和提高可伸缩性的需求。在本文中,我们介绍了对孔的遗憾和算法扩展的理论分析,并提高了不确定性估计。我们还表明,通过将问题重新提交为近似贝叶斯推断,可以自然地扩展到批处理优化设置。所得算法配备了理论性能保证,并在一系列实验中对其他批处理基本线进行了评估。
translated by 谷歌翻译
基于内核的强盗是一个广泛研究的黑盒优化问题,其中假定目标函数生活在已知的繁殖核Hilbert空间中。尽管在嘈杂的环境中建立了几乎最佳的遗憾界限(达到对数因素),但令人惊讶的是,对于无噪声设置(如果可以在没有观察噪声的情况下可以访问基础函数的确切值)时,却少了。我们遗憾地讨论了几个上限。这些似乎都没有最佳秩序,并在最佳遗憾界的顺序上提供了猜想。
translated by 谷歌翻译
贝叶斯优化(BO)已成为黑框函数的顺序优化。当BO用于优化目标函数时,我们通常可以访问对潜在相关功能的先前评估。这就提出了一个问题,即我们是否可以通过元学习(meta-bo)来利用这些先前的经验来加速当前的BO任务,同时确保稳健性抵抗可能破坏BO融合的潜在有害的不同任务。本文介绍了两种可扩展且可证明的稳健元算法:稳健的元高斯过程 - 加工置信度结合(RM-GP-UCB)和RM-GP-thompson采样(RM-GP-TS)。我们证明,即使某些或所有以前的任务与当前的任务不同,这两种算法在渐近上都是无重组的,并且证明RM-GP-UCB比RM-GP-TS具有更好的理论鲁棒性。我们还利用理论保证,通过通过在线学习最大程度地减少遗憾,优化分配给各个任务的权重,从而减少了相似任务的影响,从而进一步增强了稳健性。经验评估表明,(a)RM-GP-UCB在各种应用程序中都有效,一致地性能,(b)RM-GP-TS,尽管在理论上和实践中都比RM-GP-ucb稳健,但在实践中,在竞争性中表现出色某些方案具有较小的任务,并且在计算上更有效。
translated by 谷歌翻译
We consider a sequential decision making task where we are not allowed to evaluate parameters that violate an a priori unknown (safety) constraint. A common approach is to place a Gaussian process prior on the unknown constraint and allow evaluations only in regions that are safe with high probability. Most current methods rely on a discretization of the domain and cannot be directly extended to the continuous case. Moreover, the way in which they exploit regularity assumptions about the constraint introduces an additional critical hyperparameter. In this paper, we propose an information-theoretic safe exploration criterion that directly exploits the GP posterior to identify the most informative safe parameters to evaluate. Our approach is naturally applicable to continuous domains and does not require additional hyperparameters. We theoretically analyze the method and show that we do not violate the safety constraint with high probability and that we explore by learning about the constraint up to arbitrary precision. Empirical evaluations demonstrate improved data-efficiency and scalability.
translated by 谷歌翻译
采集函数是贝叶斯优化(BO)中的关键组成部分,通常可以写为在替代模型下对效用函数的期望。但是,为了确保采集功能是可以优化的,必须对替代模型和实用程序功能进行限制。为了将BO扩展到更广泛的模型和实用程序,我们提出了不含可能性的BO(LFBO),这是一种基于无似然推理的方法。 LFBO直接对采集函数进行建模,而无需单独使用概率替代模型进行推断。我们表明,可以将计算LFBO中的采集函数缩小为优化加权分类问题,而权重对应于所选择的实用程序。通过为预期改进选择实用程序功能,LFBO在几个现实世界优化问题上都优于各种最新的黑盒优化方法。 LFBO还可以有效利用目标函数的复合结构,从而进一步改善了其遗憾。
translated by 谷歌翻译
我们专注于在黑框设置中对模型的对抗性攻击的问题,攻击者旨在制作对受害者模型的查询访问有限的对抗性示例。现有的黑框攻击主要基于贪婪的算法,使用预先计算的关键位置来扰动,从而严重限制了搜索空间,并可能导致次优的解决方案。为此,我们提出了使用贝叶斯优化的查询有效的黑盒攻击,该贝叶斯优化使用自动相关性确定(ARD)分类内核动态计算重要位置。我们引入了块分解和历史次采样技术,以提高输入序列长时间时贝叶斯优化的可伸缩性。此外,我们开发了一种优化后算法,该算法找到了具有较小扰动大小的对抗示例。关于自然语言和蛋白质分类任务的实验表明,与先前的最新方法相比,我们的方法始终达到更高的攻击成功率,查询计数和修改率的显着降低。
translated by 谷歌翻译
贝叶斯优化(BO)的样品效率通常通过高斯工艺(GP)替代模型来提高。但是,在混合变量空间上,除GPS以外的其他替代模型很普遍,这主要是由于缺乏可以建模不同类型变量的复杂依赖性的内核。在本文中,我们提出了不同类型变量之间的频率调制(FM)内核灵活建模依赖性,以便BO可以享受进一步提高的样品效率。 FM内核使用连续变量上的距离来调节从离散变量得出的图形傅立叶光谱。但是,频率调制并不总是定义具有相似性度量行为的内核,该行为返回了更多相似点的对较高的值。因此,我们指定并证明了FM内核是正定义并表现出相似性度量行为的条件。在实验中,我们证明了使用FM内核(BO-FM)。在合成问题和超参数优化问题上提高了GP BO的样品效率,BO-FM始终优于竞争对手。同样,频率调制原理的重要性在相同的问题上得到了经验证明。关于神经体系结构和SGD超参数的联合优化,BO-FM优于包括正则演化(RE)和BOHB在内的竞争者。值得注意的是,BO-FM的性能是使用RE和BOHB的三倍,其性能比RE和BOHB更好。
translated by 谷歌翻译
贝叶斯优化(BO)已成为许多昂贵现实世界功能的全球优化的流行策略。与普遍认为BO适合优化黑框功能的信念相反,它实际上需要有关这些功能特征的域知识才能成功部署BO。这样的领域知识通常表现在高斯流程先验中,这些先验指定了有关功能的初始信念。但是,即使有专家知识,选择先验也不是一件容易的事。对于复杂的机器学习模型上的超参数调谐问题尤其如此,在这种模型中,调整目标的景观通常很难理解。我们寻求一种设定这些功能性先验的替代实践。特别是,我们考虑了从类似功能的数据中,使我们可以先验地进行更紧密的分布。从理论上讲,我们与预先训练的先验表示对BO的遗憾。为了验证我们在现实的模型培训设置中的方法,我们通过训练在流行图像和文本数据集上的数以万计的近状态模型配置来收集了大型多任务超参数调谐数据集,以及蛋白质序列数据集。我们的结果表明,平均而言,我们的方法能够比最佳竞争方法更有效地定位良好的超参数。
translated by 谷歌翻译