现实世界优化问题可能具有不同的基础结构。在黑盒优化中,决策变量之间的依赖关系仍然未知。但是,某些技术可以准确发现此类相互作用。在大规模的全球优化(LSGO)中,问题是高维的。显示出将LSGO问题分解为子问题并分别优化它们有效。这种方法的有效性可能高度取决于问题分解的准确性。许多最新的分解策略来自差分组(DG)。但是,如果给定的问题由不可分离的子问题组成,则它们仅检测真实相互作用的能力可能会大大减少。因此,我们提出了不遭受此缺陷的增量递归排名分组(IRRG)。 IRRG比最近基于DG的命题(例如递归DG 3(RDG3))消耗更多的健身功能评估。然而,对于适合RDG3的可添加性可分离子问题而言,嵌入IRRG或RDG3后所考虑的合作共同进化框架的有效性相似。但是,在用非添加的嵌入IRRG代替可分离性后,IRRG会导致质量明显更高的结果。
translated by 谷歌翻译
在本文中,我们提出了一种基于合作进化的可变分组方法,用于大规模多目标问题(LSMOPS),命名为链接测量最小化(LMM)。对于子问题优化阶段,提出了基于估计收敛点的高斯采样算子的混合NSGA-II。根据我们先前的研究,在变量分组阶段中,我们将可变分组问题视为组合优化问题,并且链接测量函数的设计基于非线性检查真实代码(LINC-R)的链接识别。我们将此变量分组方法扩展到LSMOPS。在子问题优化阶段,我们假设在帕累托前(PF)周围现有更好的解决方案的可能性更高。基于这一假设,我们估计每一代优化的收敛点,并在收敛点围绕收敛点进行高斯采样。具有良好客观价值的样本将参与优化作为精英。数值实验表明,我们的变量分组方法比某些流行的变量分组方法更好,并且混合NSGA-II具有多目标问题优化的广泛前景。
translated by 谷歌翻译
许多优化问题都遭受噪声的困扰,基于非线性检查的分解方法(例如,差异分组)将完全无法检测到乘法噪声环境中变量之间的相互作用,因此,很难分解大型优化问题(LSOPS)嘈杂的环境。在本文中,我们提出了一个自动随机分组(ARG),该分组不需要用户指定的任何明确的超参数。仿真实验和数学分析表明,ARG可以检测没有适应性景观知识的变量之间的相互作用,而由ARG分解的子问题具有较小的尺度,这使EAS更容易优化。基于合作协调(CC)框架,我们引入了一个名为“修改差异进化”的高级优化器,其基于距离的选择(MDE-DS),以增强噪声环境中的搜索能力。与规范的DE相比,参数自我适应,多样化和强化之间的平衡以及基于距离的概率选择endow endow endow mde-ds具有更强的勘探和剥削能力。为了评估我们的提案的绩效,我们根据CEC2013 LSGO Suite设计了$ 500 $ -D和$ 1000 $ -D的问题。数值实验表明,我们的建议在嘈杂的环境中解决LSOP的前景广泛,并且很容易扩展到更高维度的问题。
translated by 谷歌翻译
大多数机器学习算法由一个或多个超参数配置,必须仔细选择并且通常会影响性能。为避免耗时和不可递销的手动试验和错误过程来查找性能良好的超参数配置,可以采用各种自动超参数优化(HPO)方法,例如,基于监督机器学习的重新采样误差估计。本文介绍了HPO后,本文审查了重要的HPO方法,如网格或随机搜索,进化算法,贝叶斯优化,超带和赛车。它给出了关于进行HPO的重要选择的实用建议,包括HPO算法本身,性能评估,如何将HPO与ML管道,运行时改进和并行化结合起来。这项工作伴随着附录,其中包含关于R和Python的特定软件包的信息,以及用于特定学习算法的信息和推荐的超参数搜索空间。我们还提供笔记本电脑,这些笔记本展示了这项工作的概念作为补充文件。
translated by 谷歌翻译
我们对两个单目标和两个多目标的全局全局优化算法进行了全面的全局灵敏度分析,作为算法配置问题。也就是说,我们研究了超参数对算法的直接效果和与其他超参数的效果的影响的影响质量。使用三种敏感性分析方法Morris LHS,Morris和Sobol,可以系统地分析协方差矩阵适应进化策略,差异进化,非主导的遗传算法III和多目标进化算法的可调型矩阵适应性进化策略,基于框架的分解,基于框架揭示,基于框架的遗传算法,超参数对抽样方法和性能指标的行为。也就是说,它回答了等问题,例如什么超参数会影响模式,它们的互动方式,相互作用的互动程度以及其直接影响程度。因此,超参数的排名表明它们的调整顺序,影响模式揭示了算法的稳定性。
translated by 谷歌翻译
通过神经网络解决新的机器学习问题总是意味着优化众多的超参数,以定义其结构并强烈影响其性能。在这项工作中,我们研究了基于希尔伯特·史克米特独立标准(HSIC)的面向目标灵敏度分析的使用,用于超参数分析和优化。超参数生活在通常复杂而尴尬的空间中。它们可以具有不同的本质(分类,离散,布尔,连续),相互作用并具有相互依存关系。所有这些使得执行经典灵敏度分析是不平凡的。我们可以减轻这些困难,以获取能够量化超参数对神经网络的最终错误的相对影响的强大分析指数。这种有价值的工具使我们能够更好地理解超参数,并使超参数优化更容易解释。我们在超参数优化的背景下说明了这些知识的好处,并得出了一种基于HSIC的优化算法,我们将其应用于MNIST和CIFAR,经典的机器学习数据集,但也适用于Runge功能和Bateman方程解决方案,兴趣解决方案的近似值,用于科学的机器学习。该方法产生既有竞争力又具有成本效益的神经网络。
translated by 谷歌翻译
算法配置(AC)与对参数化算法最合适的参数配置的自动搜索有关。目前,文献中提出了各种各样的交流问题变体和方法。现有评论没有考虑到AC问题的所有衍生物,也没有提供完整的分类计划。为此,我们引入分类法以分别描述配置方法的交流问题和特征。我们回顾了分类法的镜头中现有的AC文献,概述相关的配置方法的设计选择,对比方法和问题变体相互对立,并描述行业中的AC状态。最后,我们的评论为研究人员和从业人员提供了AC领域的未来研究方向。
translated by 谷歌翻译
聚类算法的全面基准是困难的两个关键因素:(i)〜这种无监督的学习方法的独特数学定义和(ii)〜某些聚类算法采用的生成模型或群集标准之间的依赖性的依赖性内部集群验证。因此,对严格基准测试的最佳做法没有达成共识,以及是否有可能在给定申请的背景之外。在这里,我们认为合成数据集必须继续在群集算法的评估中发挥重要作用,但这需要构建适当地涵盖影响聚类算法性能的各种属性集的基准。通过我们的框架,我们展示了重要的角色进化算法,以支持灵活的这种基准,允许简单的修改和扩展。我们说明了我们框架的两种可能用途:(i)〜基准数据的演变与一组手派生属性和(ii)〜生成梳理给定对算法之间的性能差异的数据集。我们的作品对设计集群基准的设计具有足够挑战广泛算法的集群基准,并进一步了解特定方法的优势和弱点。
translated by 谷歌翻译
In this study, we consider simulation-based worst-case optimization problems with continuous design variables and a finite scenario set. To reduce the number of simulations required and increase the number of restarts for better local optimum solutions, we propose a new approach referred to as adaptive scenario subset selection (AS3). The proposed approach subsamples a scenario subset as a support to construct the worst-case function in a given neighborhood, and we introduce such a scenario subset. Moreover, we develop a new optimization algorithm by combining AS3 and the covariance matrix adaptation evolution strategy (CMA-ES), denoted AS3-CMA-ES. At each algorithmic iteration, a subset of support scenarios is selected, and CMA-ES attempts to optimize the worst-case objective computed only through a subset of the scenarios. The proposed algorithm reduces the number of simulations required by executing simulations on only a scenario subset, rather than on all scenarios. In numerical experiments, we verified that AS3-CMA-ES is more efficient in terms of the number of simulations than the brute-force approach and a surrogate-assisted approach lq-CMA-ES when the ratio of the number of support scenarios to the total number of scenarios is relatively small. In addition, the usefulness of AS3-CMA-ES was evaluated for well placement optimization for carbon dioxide capture and storage (CCS). In comparison with the brute-force approach and lq-CMA-ES, AS3-CMA-ES was able to find better solutions because of more frequent restarts.
translated by 谷歌翻译
排名汇总旨在将许多替代品的偏好排名与不同选民的偏替排名组合成单一共识排名。然而,作为各种实际应用的有用模型,它是一个计算上有挑战性的问题。在本文中,我们提出了一种有效的混合进化排名算法来解决完整和部分排名的排名聚集问题。该算法具有基于协调对的语义交叉,并通过有效的增量评估技术加强了较晚的验收本地搜索。进行实验以评估算法,与最先进的算法相比,表明基准实例上具有高度竞争性能。为了展示其实际有用性,算法应用于标签排名,这是一个重要的机器学习任务。
translated by 谷歌翻译
我们介绍了强大的子组发现的问题,即,找到一个关于一个或多个目标属性的脱颖而出的子集的一组可解释的描述,2)是统计上的鲁棒,并且3)非冗余。许多尝试已经挖掘了局部强壮的子组或解决模式爆炸,但我们是第一个从全球建模角度同时解决这两个挑战的爆炸。首先,我们制定广泛的模型类别的子组列表,即订购的子组,可以组成的单次组和多变量目标,该目标可以由标称或数字变量组成,并且包括其定义中的传统Top-1子组发现。这种新颖的模型类允许我们使用最小描述长度(MDL)原理来形式地形化最佳强大的子组发现,在那里我们分别为标称和数字目标的最佳归一化最大可能性和贝叶斯编码而度假。其次,正如查找最佳子组列表都是NP-Hard,我们提出了SSD ++,一个贪婪的启发式,找到了很好的子组列表,并保证了根据MDL标准的最重要的子组在每次迭代中添加,这被显示为等同于贝叶斯一个样本比例,多项式或子组之间的多项式或T检验,以及数据集边际目标分布以及多假设检测罚款。我们经验上显示了54个数据集,即SSD ++优于先前的子组设置发现方法和子组列表大小。
translated by 谷歌翻译
\ textit {约束路径发现}的经典问题是一个经过充分研究但充满挑战的主题,在各个领域,例如沟通和运输等各个领域的应用。权重限制了最短路径问题(WCSPP),作为仅具有一个侧面约束的约束路径查找的基本形式,旨在计划成本最佳路径,其权重/资源使用受到限制。鉴于问题的双标准性质(即处理路径的成本和权重),解决WCSPP的方法具有一些带有双目标搜索的共同属性。本文在约束路径查找和双目标搜索中利用了最新的基于A*的最新技术,并为WCSPP提供了两种精确的解决方案方法,两者都可以在非常大的图表上解决硬性问题实例。我们从经验上评估了算法在新的大型和现实的问题实例上的性能,并在时空指标中显示出它们比最新算法的优势。本文还调查了优先级队列在被a*的约束搜索中的重要性。我们通过对逼真的和随机图进行了广泛的实验来展示,基于桶的队列没有打破打盘的方式可以有效地改善详尽的双标准搜索的算法性能。
translated by 谷歌翻译
经验丰富的用户通常在解决现实世界优化问题方面具有有用的知识和直觉。用户知识可以作为可变关系的配方,以帮助优化算法更快地找到良好的解决方案。此类间相互作用也可以自动从优化运行中的中间迭代中发现的高性能解决方案中自动学习 - 一种称为Innovization的过程。如果用户对这些关系进行审查,则可以在新生成的解决方案中执行,以将优化算法引导到搜索空间中实际上有希望的区域。对于大规模问题,这种可变关系的数量可能很高,就会出现挑战。本文提出了一个基于交互式知识的进化多目标优化(IK-EMO)框架,该框架将隐藏的可变关系提取为从不断发展的高性能解决方案中的知识,与用户共享它们以接收反馈,并将其应用于优化提高其有效性的过程。知识提取过程使用系统而优雅的图形分析方法,该方法与变量数量很好地缩放。在三个大规模的现实世界工程设计问题上证明了拟议的IK-EMO的工作。提出的知识提取过程和高性能解决方案的实现的简单性和优雅迅速表明了所提出的框架的力量。提出的结果应激发进一步的基于相互作用的优化研究,以实践其常规使用。
translated by 谷歌翻译
蒙特卡洛树搜索(MCT)是设计游戏机器人或解决顺序决策问题的强大方法。该方法依赖于平衡探索和开发的智能树搜索。MCT以模拟的形式进行随机抽样,并存储动作的统计数据,以在每个随后的迭代中做出更有教育的选择。然而,该方法已成为组合游戏的最新技术,但是,在更复杂的游戏(例如那些具有较高的分支因素或实时系列的游戏)以及各种实用领域(例如,运输,日程安排或安全性)有效的MCT应用程序通常需要其与问题有关的修改或与其他技术集成。这种特定领域的修改和混合方法是本调查的主要重点。最后一项主要的MCT调查已于2012年发布。自发布以来出现的贡献特别感兴趣。
translated by 谷歌翻译
计算高效的非近视贝叶斯优化(BO)的最新进展提高了传统近视方法的查询效率,如预期的改进,同时仅适度提高计算成本。然而,这些进展在很大程度上是有限的,因为不受约束的优化。对于约束优化,少数现有的非近视博方法需要重量计算。例如,一个现有的非近视约束BO方法[LAM和Willcox,2017]依赖于计算昂贵的不可靠的暴力衍生物的无可靠性衍生物优化蒙特卡罗卷展卷采集功能。使用Reparameterization技巧进行更有效的基于衍生物的优化的方法,如在不受约束的环境中,如样本平均近似和无限扰动分析,不扩展:约束在取样的采集功能表面中引入阻碍其优化的不连续性。此外,我们认为非近视在受限制问题中更为重要,因为违反限制的恐惧将近视方法推动了可行和不可行区域之间的边界,减缓了具有严格约束的最佳解决方案的发现。在本文中,我们提出了一种计算的有效的两步保护受限贝叶斯优化采集功能(2-OPT-C)支持顺序和批处理设置。为了实现快速采集功能优化,我们开发了一种新的基于似然比的非偏见估计,其两步最佳采集函数的梯度不使用Reparameterization技巧。在数值实验中,2-OPT-C通常通过先前的方法通过2倍或更多的查询效率,并且在某些情况下通过10倍或更大。
translated by 谷歌翻译
Performance debugging in production is a fundamental activity in modern service-based systems. The diagnosis of performance issues is often time-consuming, since it requires thorough inspection of large volumes of traces and performance indices. In this paper we present DeLag, a novel automated search-based approach for diagnosing performance issues in service-based systems. DeLag identifies subsets of requests that show, in the combination of their Remote Procedure Call execution times, symptoms of potentially relevant performance issues. We call such symptoms Latency Degradation Patterns. DeLag simultaneously searches for multiple latency degradation patterns while optimizing precision, recall and latency dissimilarity. Experimentation on 700 datasets of requests generated from two microservice-based systems shows that our approach provides better and more stable effectiveness than three state-of-the-art approaches and general purpose machine learning clustering algorithms. DeLag is more effective than all baseline techniques in at least one case study (with p $\leq$ 0.05 and non-negligible effect size). Moreover, DeLag outperforms in terms of efficiency the second and the third most effective baseline techniques on the largest datasets used in our evaluation (up to 22%).
translated by 谷歌翻译
Metaheuristics are popularly used in various fields, and they have attracted much attention in the scientific and industrial communities. In recent years, the number of new metaheuristic names has been continuously growing. Generally, the inventors attribute the novelties of these new algorithms to inspirations from either biology, human behaviors, physics, or other phenomena. In addition, these new algorithms, compared against basic versions of other metaheuristics using classical benchmark problems without shift/rotation, show competitive performances. In this study, we exhaustively tabulate more than 500 metaheuristics. To comparatively evaluate the performance of the recent competitive variants and newly proposed metaheuristics, 11 newly proposed metaheuristics and 4 variants of established metaheuristics are comprehensively compared on the CEC2017 benchmark suite. In addition, whether these algorithms have a search bias to the center of the search space is investigated. The results show that the performance of the newly proposed EBCM (effective butterfly optimizer with covariance matrix adaptation) algorithm performs comparably to the 4 well performing variants of the established metaheuristics and possesses similar properties and behaviors, such as convergence, diversity, exploration and exploitation trade-offs, in many aspects. The performance of all 15 of the algorithms is likely to deteriorate due to certain transformations, while the 4 state-of-the-art metaheuristics are less affected by transformations such as the shifting of the global optimal point away from the center of the search space. It should be noted that, except EBCM, the other 10 new algorithms proposed mostly during 2019-2020 are inferior to the well performing 2017 variants of differential evolution and evolution strategy in terms of convergence speed and global search ability on CEC 2017 functions.
translated by 谷歌翻译
超参数优化构成了典型的现代机器学习工作流程的很大一部分。这是由于这样一个事实,即机器学习方法和相应的预处理步骤通常只有在正确调整超参数时就会产生最佳性能。但是在许多应用中,我们不仅有兴趣仅仅为了预测精度而优化ML管道;确定最佳配置时,必须考虑其他指标或约束,从而导致多目标优化问题。由于缺乏知识和用于多目标超参数优化的知识和容易获得的软件实现,因此通常在实践中被忽略。在这项工作中,我们向读者介绍了多个客观超参数优化的基础知识,并激励其在应用ML中的实用性。此外,我们从进化算法和贝叶斯优化的领域提供了现有优化策略的广泛调查。我们说明了MOO在几个特定ML应用中的实用性,考虑了诸如操作条件,预测时间,稀疏,公平,可解释性和鲁棒性之类的目标。
translated by 谷歌翻译
决策树学习是机器学习中广泛使用的方法,在需要简洁明了的模型的应用中受到青睐。传统上,启发式方法用于快速生产具有相当高准确性的模型。然而,一个普遍的批评是,从精度和大小方面,所产生的树可能不一定是数据的最佳表示。近年来,这激发了最佳分类树算法的发展,这些算法与执行一系列本地最佳决策的启发式方法相比,在全球范围内优化决策树。我们遵循这一工作线,并提供了一种基于动态编程和搜索的最佳分类树的新颖算法。我们的算法支持对树的深度和节点数量的约束。我们方法的成功归因于一系列专门技术,这些技术利用了分类树独有的属性。传统上,最佳分类树的算法受到了高运行时的困扰和有限的可伸缩性,但我们在一项详细的实验研究中表明,我们的方法仅使用最先进的时间所需的时间,并且可以处理数十个数据集的数据集在数千个实例中,提供了几个数量级的改进,并特别有助于实现最佳决策树的实现。
translated by 谷歌翻译
The local optima network model has proved useful in the past in connection with combinatorial optimization problems. Here we examine its extension to the real continuous function domain. Through a sampling process, the model builds a weighted directed graph which captures the function's minima basin structure and its interconnection and which can be easily manipulated with the help of complex networks metrics. We show that the model provides a complementary view of function spaces that is easier to analyze and visualize, especially at higher dimension. In particular, we show that function hardness as represented by algorithm performance, is strongly related to several graph properties of the corresponding local optima network, opening the way for a classification of problem difficulty according to the corresponding graph structure and with possible extensions in the design of better metaheuristic approaches.
translated by 谷歌翻译