健身分配过程将候选解决方案的特征(例如客观值)转换为标量适合度,然后是选择的基础。在频率健身分配(FFA)下,对应于客观值的适应度是其遇到频率,并且可能会最小化。 FFA创建了不偏向更好的解决方案的算法,并且在目标函数值的所有双突发下都是不变的。我们调查FFA对两种理论启发,最先进的EA,贪婪(2 + 1)GA和自调节(1 +λ,λ)的性能的影响。 FFA对他们难以提高他们的表现。我们经验地发现一种基于FFA的算法可以解决本研究中的所有基于理论的基准问题,包括多项式时间中的陷阱,跳跃和强化。我们提出了两种混合方法,该方法使用直接和基于FFA的优化,并发现它们表现良好。所有基于FFA的算法在满足性问题上也比所有纯算法变体更好。
translated by 谷歌翻译
在实际优化方案中,要求我们解决的问题实例可能会在优化过程中发生变化,例如,当可用新信息或环境条件发生变化时。在这种情况下,人们可以希望通过从最佳解决方案的最佳解决方案继续进行搜索来实现合理的绩效。同样,人们可能希望,在解决彼此相似的几个问题实例时,````温暖启动'''第二个实例的优化过程是通过第一个实例的最佳解决方案的优化过程。但是,在[Doerr等人,GECCO 2019]中显示,即使使用结构良好的解决方案初始化,进化算法也可能具有通过结构上更糟糕的解决方案替换这些良好溶液的趋势,从而导致优化时间与没有优化的时间相比没有优化的时间。相同的算法从头开始。 Doerr等人。还提出了一种克服这个问题的多样性机制。他们的方法平衡了围绕当前问题的最佳解决方案的贪婪搜索,并在上一个实例的最佳发现解决方案周围进行搜索。在这项工作中,我们首先表明Doerr等人建议的重新优化方法。当问题实例容易发生更频繁的更改时,达到限制。更确切地说,我们证明它们被陷入了动态领导问题问题,目标字符串定期更改。然后,我们提出了其算法的修改,该算法在围绕先前最佳和当前最佳解决方案围绕贪婪的搜索进行了插值。我们从经验上评估了具有各种变化频率和不同扰动因素的前导者实例上的平滑重优化算法,并表明它表现出优于完全重新启动的(1+1)进化算法和Doerr等人的重新挑选方法。
translated by 谷歌翻译
大多数进化算法具有多个参数,它们的值大大影响性能。由于参数的常复相互作用,将这些值设置为特定问题(参数调整)是一个具有挑战性的任务。当最佳参数值在算法运行期间最佳参数值发生显着变化时,此任务变得更加复杂。然后是必要的动态参数选择(参数控制)。在这项工作中,我们提出了一个懒惰但有效的解决方案,即从一个适当缩放的幂律分布中随机地选择所有参数值(在那里这是有意义的)。为了展示这种方法的有效性,我们使用以这种方式选择的所有三个参数执行$(1 +(\ lambda,\ lambda))$遗传算法的运行时分析。我们展示该算法一方面可以模仿像$(1 + 1)$ EA这样的简单山羊,给出了onemax,领导者或最小生成树等问题的相同渐近运行时。另一方面,该算法对跳跃功能也非常有效,其中最佳静态参数与优化简单问题所需的静态参数非常不同。我们证明了具有可比性的性能保证,有时比静态参数所知的最佳性能更好。我们通过严格的实证研究来补充我们的理论结果,证实了渐近运行时期结果的建议。
translated by 谷歌翻译
跳跃功能是随机搜索启发式理论中的{最多研究的非单峰基准,特别是进化算法(EA)。他们对我们的理解显着改善了EASE逃离当地最优的理解。然而,他们的特殊结构 - 离开本地最佳的结构只能直接跳到全球最优 - 引发代表性这种结果的问题。出于这个原因,我们提出了一个扩展的$ \ textsc {jump} _ {k,\ delta} $ jump函数,其中包含宽度$ \ delta $的低适合度vally以距离$ k $从全局最佳v $开始。我们证明了几个以前的结果延伸到这一更普遍的类:对于所有{$ k \ le \ frac {n ^ {1/3}} {\ ln {n}} $}和$ \ delta <k $,最佳$(1 + 1)$〜EA的突变率是$ \ FRAC {\ delta} $,并且快速$(1 + 1)$〜EA运行比经典$(1 + 1)$更快〜ea在$ \ delta $中的一个超级指数。但是,我们还观察到一些已知结果不概括:随机本地搜索算法具有停滞检测,其比$ \ textsc的$ k $ k $ k $ k $ k $ k $ k $ x $ \ textsc {跳} _K $,在某些$ \ textsc {jump} _ {k,\ delta} $实例上以$ n $的因子多项式慢。计算地,新类允许使用更宽的健身谷的实验,特别是当它们远离全球最佳时。
translated by 谷歌翻译
分布算法(EDA)是优化算法,在搜索空间上学习分布,可以轻松地采样良好的解决方案。大多数EDA的关键参数是样本量(人口尺寸)。如果人口规模太小,则概率模型的更新基于很少的样本,从而导致遗传漂移的不期望效应。人口太大避免了遗传漂移,但减慢了这一过程。基于对种群规模如何导致遗传漂移的最新定量分析,我们为EDA设计了一种智能的正式机制。通过停止运行,当遗传漂移的风险很高时,它会自动以良好的参数状态运行EDA。通过数学运行时分析,我们证明了此智能总结方案的一般性能保证。这特别表明,在许多情况下,已知最佳(特定问题)参数值,重新启动方案会自动找到这些,从而导致渐近最佳性能。我们还进行了广泛的实验分析。在四个经典的基准问题上,我们清楚地观察了人口规模对性能的关键影响,并且我们发现智能重点方案会导致具有最佳参数值可获得的性能。我们的结果还表明,先前基于理论的最佳人口规模的建议远非最佳群体,从而导致表现明显不如通过智能重点方案获得的表现。我们还对文献,最大切割问题和两部分问题的两个组合优化问题进行了PBIL(跨熵算法)进行实验。同样,我们观察到,智能设施的机制比文献中建议的人口规模更高,从而导致表现更好。
translated by 谷歌翻译
过去已经表明,与解决多模式问题生成器的解决实例相比,多座丘陵策略与标准遗传算法相比有利。我们扩展了这项工作,并验证遗传算法中多样性保存技术的利用是否改变了比较结果。在两种情况下,我们这样做:(1)​​目标是找到全局最佳距离时,(2)当目标是找到所有Optima时。进行了数学分析,用于多设山丘算法,并通过实证研究进行了经验研究,以求解多模式问题生成器的实例,其中包括山丘策略以及遗传算法的数量,并使用遗传算法进行了元素。尽管小甲基元素改善了遗传算法的性能,但它仍然不如这类问题上的多尽山关闭策略。还提出了一种理想化的细分策略,并认为它的性能应接近任何进化算法在此类问题上可以做到的。
translated by 谷歌翻译
$(1 +(\ lambda,\ lambda))$遗传算法是一种较年轻的进化算法,试图从劣质解决方案中获利。关于单峰的健身功能的严格运行时分析表明它确实可以比古典进化算法更快,但在这些简单的问题上,收益只有中等。在这项工作中,我们在多模式问题类中进行了该算法的第一个运行时分析,跳跃功能基准。我们展示了使用正确的参数,\ ollga优化任何跳跃尺寸$ 2 \ Le K \ Le N / 4 $的任何跳跃功能,在预期的时间$ O(n ^ {(k + 1)/ 2} e ^ {o( k)}} k ^ { - k / 2}),它显着且已经持续了〜$ k $优于基于标准的突变的算法与他们的$ \ theta(n ^ k)$运行时与它们的标准交叉的算法$ \ tilde {o}(n ^ {k-1})$运行时保证。对于离开局部跳跃功能的局部最佳的孤立问题,我们确定了导致$(n / k)^ {k / 2} e ^ {\ theta(k)} $的运行时间的最佳参数。这表明有关如何设置\ ollga的参数的一般建议,这可能会缓解该算法的进一步使用。
translated by 谷歌翻译
在进化计算中使用非豁免主义时的一个希望是放弃当前最佳解决方案的能力,艾滋病们离开本地最佳效果。为了提高我们对这种机制的理解,我们对基本的非精英进化算法(EA),$(\ mu,\ lambda)$ ea进行严格的运行时分析,在最基本的基准函数上,具有本地最佳的基本基准函数跳跃功能。我们证明,对于参数和问题的所有合理值,$(\ mu,\ lambda)$ ~ea的预期运行时间除了下订单条款之外,至少与其Elitist对应的预期运行时间,$(\ mu + \ lambda)$〜ea(我们对跳转功能进行第一个运行时分析以允许此比较)。因此,$(\ mu,\ lambda)$ ~ea将本地最优方式留给劣质解决方案的能力不会导致运行时优势。我们补充了这个下限的下限,即对于参数的广泛范围,与我们的下限不同,与下顺序不同。这是一个在多模态问题上的非精英算法的第一个运行时结果,除了下订单术语。
translated by 谷歌翻译
第五个成功规则是控制进化算法参数的最着名和最广泛接受的技术之一。虽然它经常在字面意义上应用,但一个共同的解释将五分之一的成功规则视为一系列基于成功的更新规则,这些规则由更新强度$ F $和成功率决定。在这方面,我们分析了(1 + 1)进化算法在领导者上的性能取决于这两个超参数。我们的主要结果表明,为小型更新优势获得最佳性能$ f = 1 + o(1)$和成功率$ 1 / e $。我们还证明,除了下订单术语之外,通过该参数设置获得的运行时间,通过最佳的健身依赖率实现的相同。我们对(1 + 1)进化算法的重新采样变体显示了类似的结果,该算法强制实施每次迭代至少一位。
translated by 谷歌翻译
我们继续研究遗传算法(GA)在组合优化问题上,候选解决方案需要满足平衡性约束。已经观察到,临时交叉和突变操作员授予的搜索空间大小的减小通常不会转化为GA性能的实质性改善。尽管怀疑平衡的代表可能会产生更不规则的健身景观,但仍然没有明确的解释,尽管该景观可能会更难以使GA融合到全球最佳距离。在本文中,我们通过将局部搜索步骤添加到具有平衡运算符的GA,并使用它来进化高度非线性平衡的布尔功能,从而调查此问题。特别是,我们围绕两个研究问题组织了实验,即如果本地搜索(1)提高了GA的收敛速度,并且(2)降低了人口多样性。令人惊讶的是,尽管我们的结果肯定地回答了第一个问题,但他们还表明,添加本地搜索实际上\ emph {增加}人口中个人之间的多样性。我们将这些发现与有关布尔功能问题的健身景观分析的最新结果联系起来。
translated by 谷歌翻译
最近,已经进行了NSGA-II的第一个数学运行时分析,这是最常见的多目标进化算法(Zheng,Liu,Doerr(AAAI 2022))。继续这一研究方向,我们证明了NSGA-II在使用交叉时,渐近渐近地测试了OneJumpZeroJump基准测试。这是NSGA-II首次证明这种交叉的优势。我们的论点可以转移到单目标优化。然后,他们证明,跨界可以以不同的方式加速$(\ MU+1)$遗传算法,并且比以前更为明显。我们的实验证实了交叉的附加值,并表明观察到的加速度甚至比我们的证明所能保证的要大。
translated by 谷歌翻译
为了更好地了解进化算法(EAS)如何应对恒定健身的平台的理论理解,我们提出了$ N $ -dimensional高原$ _K $函数作为天然基准,分析$(1 + 1)$的不同变体EA优化它。高原$ _K $函数在最佳的半径k $的半径k $的第二个最佳健身高原。作为进化算法,我们使用任意无偏的突变算子以$(1 + 1)$ EA。用$ \ alpha $ \ alpha $ \ alpha的随机数量在这个运算符的应用中,并假设$ \ pr [\ alpha = 1] $至少具有一些小的子常值,我们展示了所有常量的令人惊讶的结果$ k \ ge 2 $,运行时$ t $遵循靠近几何一个的分布,其中成功概率等于翻转的概率为1 $和$ k $ bits除以高原的大小。因此,预期的运行时是该号码的倒数,因此只取决于翻转1美元和$ k $位之间的概率,而不是突变运算符的其他特征。我们的结果也意味着这里标准位突变的最佳突变率约为k /(en)$。我们的主要分析工具是在搜索点空间和汉明级空间上的马尔可夫链的综合分析,这是一种对其他高原问题也有用的方法。
translated by 谷歌翻译
最近,已经进行了多目标进化优化器NSGA-II的第一个数学运行时分析(AAAI 2022,GECCO 2022(出现),ARXIV 2022)。我们通过对由两个多模式目标组成的基准问题进行该算法的第一个运行时分析继续进行这一研究。我们证明,如果人口尺寸$ n $至少是帕累托阵线的四倍,那么NSGA-II具有四种不同方法的NSGA-II选择父母,并且位于Bit Wise突变将优化OnejumpzeroJump基准,其跳高尺寸〜$ 2 \ le lek \ le n/4 $ in Time $ o(n n^k)$。当使用快速突变(最近提出的重型突变操作员)时,此保证将提高$ k^{\ omega(k)} $。总体而言,这项工作表明,NSGA-II至少与全球SEMO算法有关OnejumpZeroJump问题的局部优势。
translated by 谷歌翻译
进化算法(EAS)是通用优化仪,其具有父母和后代群体的大小或突变率。众所周知,EAS的性能可能在这些参数上急剧上依赖。最近的理论研究表明,自调节参数控制机制在算法运行期间调整参数的调节参数可以在离散问题上可被显着优于最佳静态参数。然而,大多数这些研究有关的Elitist EAB,我们没有明确的答案,以及是否可以申请非Elitist EA。我们研究了一个最着名的参数控制机制,第五个成功规则,控制后代人口尺寸$ \ lambda $ \ llambda $ ea。众所周知,$(1,\ lambda)$ ea有一个尖锐的阈值,关于$ \ lambda $的选择,其中基准函数的预期运行时间onemax从多项式变为指数时间。因此,目前尚不清楚参数控制机制是否能够找到和维护$ \ lambda $的合适值。对于OneMax,我们表明答案是至关重要的,这取决于成功率$ s $(即一+ 1)美元成功规则)。我们证明,如果成功率适当小,则自我调整$(1,\ Lambda)$ EA优化ONEMAX以美元(n)$预期的几代人和$ O(n \ log n)$预期评估任何一元无偏见的黑匣子算法最好的运行时。一个小的成功率至关重要:我们还表明,如果成功率太大,则该算法对onemax具有指数运行计划和具有相似特征的其他功能。
translated by 谷歌翻译
非主导的分类遗传算法II(NSGA-II)是现实应用中最强烈使用的多目标进化算法(MOEA)。然而,与几个通过数学手段分析的几个简单的MOES相反,到目前为止,NSGA-II也不存在这种研究。在这项工作中,我们表明,数学运行时分析也可用于NSGA-II。结果,我们证明,由于持续因素大于帕累托前方大小的人口大小,具有两个经典突变算子的NSGA-II和三种不同的选择父母的方式满足与Semo和GSEMO相同的渐近运行时保证基本ineminmax和Lotz基准函数的算法。但是,如果人口大小仅等于帕累托前面的大小,那么NSGA-II就无法有效地计算完整的帕累托前部(对于指数迭代,人口总是错过帕累托前部的恒定分数) 。我们的实验证实了上述研究结果。
translated by 谷歌翻译
算法配置(AC)与对参数化算法最合适的参数配置的自动搜索有关。目前,文献中提出了各种各样的交流问题变体和方法。现有评论没有考虑到AC问题的所有衍生物,也没有提供完整的分类计划。为此,我们引入分类法以分别描述配置方法的交流问题和特征。我们回顾了分类法的镜头中现有的AC文献,概述相关的配置方法的设计选择,对比方法和问题变体相互对立,并描述行业中的AC状态。最后,我们的评论为研究人员和从业人员提供了AC领域的未来研究方向。
translated by 谷歌翻译
图形着色问题(GCP)是计算机科学中最受研究的NP艰难问题之一。给定图形,任务是为所有顶点分配颜色,使得没有共享边缘的顶点接收相同的颜色并且使用的颜色的数量是最小的。已经应用了不同的启发式,元启发式,机器学习和混合解决方法来获得解决方案。解决这个问题,我们使用进化算法的突变。为此目的,我们介绍了图形着色问题的二进制编码。这种二进制编码有助于我们轻松突变,评估,免疫系统和合并颜色,并动态减少着色。在用于图形着色的传统进化算法(EA)中,使用k着色方法​​,并重复运行EA直到达到最低点。在我们的论文中,我们从色度数字的理论上限开始,即最大程度+ 1和进化过程中的一些颜色是未使用的,以动态减少每一代中的颜色数量。我们测试几个标准的Dimacs基准并比较怨恨纸张。最大结果与预期的色彩颜色相同,并且很少的数据集大于预期的色度
translated by 谷歌翻译
在差分演进(DE)算法中,采用突变的交叉操作滤波变量灵活地搜索可行区域,这导致其在各种复杂优化问题中的成功应用。要调查DE的交叉运算符是否有助于改进进化算法(EAS),本文实现了$(1 + 1)ea_ {c} $和$(1 + 1)ea_ {cm的理论分析$,$(1 + 1)EA $的两种变体,它包含二项式交叉运算符。通常,二项式交叉导致在某些条件下提高探索和过渡矩阵的优势。结果,$(1 + 1)ea_ {c} $和$(1 + 1)ea_ {cm} $胜过$(1 + 1)ea $上的单向性onemax问题,但并不总是在欺骗性问题上占据主导地位。最后,我们通过调查从非最佳状态转移到欺骗性问题的最佳状态的概率来执行探索分析,并提出适应性参数设置,以加强二项式交叉的有希望的功能。它表明,掺入二项式交叉可能是改善EA的性能的可行策略。
translated by 谷歌翻译
在过去的几十年中,经典的车辆路由问题(VRP),即为车辆分配一组订单并规划他们的路线已经被密集研究。仅作为车辆的订单分配和他们的路线已经是一个NP完整的问题,因此在实践中的应用通常无法考虑在现实世界应用中应用的约束和限制,所谓的富VRP所谓的富VRP(RVRP)并且仅限于单一方面。在这项工作中,我们融入了主要的相关真实限制和要求。我们提出了一种两级策略和时间线窗口和暂停时间的时间线算法,并将遗传算法(GA)和蚁群优化(ACO)单独应用于问题以找到最佳解决方案。我们对四种不同问题实例的评估,针对四个最先进的算法表明,我们的方法在合理的时间内处理所有给定的约束。
translated by 谷歌翻译
The NSGA-II is one of the most prominent algorithms to solve multi-objective optimization problems. Despite numerous successful applications, several studies have shown that the NSGA-II is less effective for larger numbers of objectives. In this work, we use mathematical runtime analyses to rigorously demonstrate and quantify this phenomenon. We show that even on the simple OneMinMax benchmark, where every solution is Pareto optimal, the NSGA-II also with large population sizes cannot compute the full Pareto front (objective vectors of all Pareto optima) in sub-exponential time when the number of objectives is at least three. Our proofs suggest that the reason for this unexpected behavior lies in the fact that in the computation of the crowding distance, the different objectives are regarded independently. This is not a problem for two objectives, where any sorting of a pair-wise incomparable set of solutions according to one objective is also such a sorting according to the other objective (in the inverse order).
translated by 谷歌翻译