在本文中,我们提出了一个两阶段优化策略,用于解决名为CCPNRL-GA的大规模旅行推销员问题(LSTSP)。首先,我们假设一个表现出色的人作为精英的参与可以加速优化的收敛性。基于这一假设,在第一阶段,我们将城市聚集并将LSTSP分解为多个子组件,并使用可重复使用的指针网络(PTRNET)优化每个子组件。在亚组件优化之后,我们将所有子巡回仪组合在一起以形成有效的解决方案,该解决方案将与GA的第二阶段相连。我们验证了我们对10个LSTSP的建议的绩效,并将其与传统EAS进行比较。实验结果表明,精英个人的参与可以极大地加速LSTSP的优化,而我们的建议在处理LSTSP方面具有广泛的前景。
translated by 谷歌翻译
在本文中,我们提出了一种基于合作进化的可变分组方法,用于大规模多目标问题(LSMOPS),命名为链接测量最小化(LMM)。对于子问题优化阶段,提出了基于估计收敛点的高斯采样算子的混合NSGA-II。根据我们先前的研究,在变量分组阶段中,我们将可变分组问题视为组合优化问题,并且链接测量函数的设计基于非线性检查真实代码(LINC-R)的链接识别。我们将此变量分组方法扩展到LSMOPS。在子问题优化阶段,我们假设在帕累托前(PF)周围现有更好的解决方案的可能性更高。基于这一假设,我们估计每一代优化的收敛点,并在收敛点围绕收敛点进行高斯采样。具有良好客观价值的样本将参与优化作为精英。数值实验表明,我们的变量分组方法比某些流行的变量分组方法更好,并且混合NSGA-II具有多目标问题优化的广泛前景。
translated by 谷歌翻译
在本文中,我们提出了一个简单的策略,可以通过平均估计精英子人群来估计收敛点。基于这个想法,我们得出了两种方法,它们是普通的平均策略和加权平均策略。我们还设计了一个具有估计收敛点的平均值的高斯采样算子,具有一定的标准偏差。该操作员与传统的差分进化算法(DE)结合使用,以加速收敛。数值实验表明,我们的建议可以在CEC2013套件上的28个低维测试功能的大多数功能上加速DE,并且可以轻松扩展我们的建议与其他基于人群的进化算法结合使用,并简单地修改。
translated by 谷歌翻译
我们提出了一种称为钢筋混合遗传算法(RHGA)的新型方法,用于解决着名的NP-Hard Travel推销员问题(TSP)。具体地,我们将加强学习技术与众所周知的边缘组装交叉遗传算法(EAX-GA)和Lin-Kernighan-Helsgaun(LKH)本地搜索启发式组合。借助拟议的混合机制,EAX-GA的遗传演进和LKH的本地搜索可以促进彼此的性能。基于Q学习的加强学习技术进一步促进了混合遗传算法。在138众名知名度和广泛使用的TSP基准测试中的实验结果与1,000至85,900的城市数量呈现出rhGA的优异性能,显着优于EAX-GA和LKH。
translated by 谷歌翻译
许多优化问题都遭受噪声的困扰,基于非线性检查的分解方法(例如,差异分组)将完全无法检测到乘法噪声环境中变量之间的相互作用,因此,很难分解大型优化问题(LSOPS)嘈杂的环境。在本文中,我们提出了一个自动随机分组(ARG),该分组不需要用户指定的任何明确的超参数。仿真实验和数学分析表明,ARG可以检测没有适应性景观知识的变量之间的相互作用,而由ARG分解的子问题具有较小的尺度,这使EAS更容易优化。基于合作协调(CC)框架,我们引入了一个名为“修改差异进化”的高级优化器,其基于距离的选择(MDE-DS),以增强噪声环境中的搜索能力。与规范的DE相比,参数自我适应,多样化和强化之间的平衡以及基于距离的概率选择endow endow endow mde-ds具有更强的勘探和剥削能力。为了评估我们的提案的绩效,我们根据CEC2013 LSGO Suite设计了$ 500 $ -D和$ 1000 $ -D的问题。数值实验表明,我们的建议在嘈杂的环境中解决LSOP的前景广泛,并且很容易扩展到更高维度的问题。
translated by 谷歌翻译
旅行推销员问题(TSP)是许多实用变体的经典NP-HARD组合优化问题。 Lin-Kernighan-Helsgaun(LKH)算法是TSP的最先进的本地搜索算法之一,LKH-3是LKH的强大扩展,可以解决许多TSP变体。 LKH和LKH-3都将一个候选人与每个城市相关联,以提高算法效率,并具有两种不同的方法,称为$ \ alpha $ - 计算和Popmusic,以决定候选人集。在这项工作中,我们首先提出了一种可变策略加强LKH(VSR-LKH)算法,该算法将三种强化学习方法(Q-Learning,SARSA和Monte Carlo)与LKH算法结合在一起,以解决TSP。我们进一步提出了一种称为VSR-LKH-3的新算法,该算法将可变策略强化学习方法与LKH-3结合在一起,用于典型的TSP变体,包括带有时间窗口(TSPTW)和彩色TSP(CTSP)的TSP。所提出的算法取代了LKH和LKH-3中的不灵活的遍历操作,并让算法学会通过增强学习在每个搜索步骤中做出选择。 LKH和LKH-3都具有$ \ alpha $量或Popmusic方法,我们的方法都可以显着改善。具体而言,对236个公共和广泛使用的TSP基准的经验结果具有多达85,900个城市,证明了VSR-LKH的出色表现,扩展的VSR-LKH-3也显着超过了TSPTW和TSPTW和TSPTW和TSPTW的最新启发式方法CTSP。
translated by 谷歌翻译
多目标定向运动问题(MO-OPS)是经典的多目标路由问题,在过去几十年中,人们一直受到很多关注。这项研究旨在通过问题分解框架解决MO-OPS,即MO-OP分解为多目标背包问题(MOKP)和旅行推销员问题(TSP)。然后,MOKP和TSP分别通过多目标进化算法(MOEA)和深钢筋学习(DRL)方法来解决。虽然MOEA模块用于选择城市,但DRL模块用于计划这些城市的哈密顿路径。这两个模块的迭代使用将人口驱动到Mo-ops的帕累托前沿。在各种类型的MO-OP实例上,将提出方法的有效性与NSGA-II和NSGA-III进行了比较。实验结果表明,我们的方法几乎在所有测试实例上表现出最佳性能,并且表现出强大的概括能力。
translated by 谷歌翻译
最近的研究表明,神经组合优化(NCO)在许多组合优化问题(如路由)中具有优于传统算法的优点,但是对于涉及相互条件的动作空间的包装,诸如打包的更加复杂的优化任务的效率较低。在本文中,我们提出了一种经常性的条件查询学习(RCQL)方法来解决2D和3D包装问题。我们首先通过经常性编码器嵌入状态,然后采用先前操作的条件查询注意。条件查询机制填充了学习步骤之间的信息差距,将问题塑造为Markov决策过程。从复发中受益,单个RCQL模型能够处理不同尺寸的包装问题。实验结果表明,RCQL可以有效地学习用于离线和在线条带包装问题(SPP)的强烈启发式,优于空间利用率范围广泛的基线。 RCQL与最先进的方法相比,在离线2D 40盒案例中将平均箱间隙比率降低1.83%,3.84%。同时,我们的方法还实现了5.64%的空间利用率,对于1000件物品的空间利用率比现有技术更高。
translated by 谷歌翻译
Connected and automated vehicles (CAVs) are viewed as a special kind of robots that have the potential to significantly improve the safety and efficiency of traffic. In contrast to many swarm robotics studies that are demonstrated in labs by employing a small number of robots, CAV studies aims to achieve cooperative driving of unceasing robot swarm flows. However, how to get the optimal passing order of such robot swarm flows even for a signal-free intersection is an NP-hard problem (specifically, enumerating based algorithm takes days to find the optimal solution to a 20-CAV scenario). Here, we introduce a novel cooperative driving algorithm (AlphaOrder) that combines offline deep learning and online tree searching to find a near-optimal passing order in real-time. AlphaOrder builds a pointer network model from solved scenarios and generates near-optimal passing orders instantaneously for new scenarios. Furthermore, our approach provides a general approach to managing preemptive resource sharing between swarm robotics (e.g., scheduling multiple automated guided vehicles (AGVs) and unmanned aerial vehicles (UAVs) at conflicting areas
translated by 谷歌翻译
Metaheuristics are popularly used in various fields, and they have attracted much attention in the scientific and industrial communities. In recent years, the number of new metaheuristic names has been continuously growing. Generally, the inventors attribute the novelties of these new algorithms to inspirations from either biology, human behaviors, physics, or other phenomena. In addition, these new algorithms, compared against basic versions of other metaheuristics using classical benchmark problems without shift/rotation, show competitive performances. In this study, we exhaustively tabulate more than 500 metaheuristics. To comparatively evaluate the performance of the recent competitive variants and newly proposed metaheuristics, 11 newly proposed metaheuristics and 4 variants of established metaheuristics are comprehensively compared on the CEC2017 benchmark suite. In addition, whether these algorithms have a search bias to the center of the search space is investigated. The results show that the performance of the newly proposed EBCM (effective butterfly optimizer with covariance matrix adaptation) algorithm performs comparably to the 4 well performing variants of the established metaheuristics and possesses similar properties and behaviors, such as convergence, diversity, exploration and exploitation trade-offs, in many aspects. The performance of all 15 of the algorithms is likely to deteriorate due to certain transformations, while the 4 state-of-the-art metaheuristics are less affected by transformations such as the shifting of the global optimal point away from the center of the search space. It should be noted that, except EBCM, the other 10 new algorithms proposed mostly during 2019-2020 are inferior to the well performing 2017 variants of differential evolution and evolution strategy in terms of convergence speed and global search ability on CEC 2017 functions.
translated by 谷歌翻译
Machine Learning algorithms have been extensively researched throughout the last decade, leading to unprecedented advances in a broad range of applications, such as image classification and reconstruction, object recognition, and text categorization. Nonetheless, most Machine Learning algorithms are trained via derivative-based optimizers, such as the Stochastic Gradient Descent, leading to possible local optimum entrapments and inhibiting them from achieving proper performances. A bio-inspired alternative to traditional optimization techniques, denoted as meta-heuristic, has received significant attention due to its simplicity and ability to avoid local optimums imprisonment. In this work, we propose to use meta-heuristic techniques to fine-tune pre-trained weights, exploring additional regions of the search space, and improving their effectiveness. The experimental evaluation comprises two classification tasks (image and text) and is assessed under four literature datasets. Experimental results show nature-inspired algorithms' capacity in exploring the neighborhood of pre-trained weights, achieving superior results than their counterpart pre-trained architectures. Additionally, a thorough analysis of distinct architectures, such as Multi-Layer Perceptron and Recurrent Neural Networks, attempts to visualize and provide more precise insights into the most critical weights to be fine-tuned in the learning process.
translated by 谷歌翻译
二进制矩阵优化通常是在现实世界中出现的,例如多微晶网络结构设计问题(MGNSDP),即在某些约束下最小化电源线的总长度。为这些问题找到全球最佳解决方案面临着一个巨大的挑战,因为此类问题可能是大规模,稀疏和多模式。传统的线性编程是耗时的,无法解决非线性问题。为了解决这个问题,提出了一种新颖的可行性规则基于差异进化算法,称为LBMDE。具体来说,首先提出了一种通用启发式溶液初始化方法来生成高质量的解决方案。然后,引入了基于二进制的DE操作员以生产后代。为了处理约束,我们提出了改进的基于可行性规则的环境选择策略。通过一组基准问题来检查LBMDE的性能和搜索行为。
translated by 谷歌翻译
Influence Maximization (IM) is a classical combinatorial optimization problem, which can be widely used in mobile networks, social computing, and recommendation systems. It aims at selecting a small number of users such that maximizing the influence spread across the online social network. Because of its potential commercial and academic value, there are a lot of researchers focusing on studying the IM problem from different perspectives. The main challenge comes from the NP-hardness of the IM problem and \#P-hardness of estimating the influence spread, thus traditional algorithms for overcoming them can be categorized into two classes: heuristic algorithms and approximation algorithms. However, there is no theoretical guarantee for heuristic algorithms, and the theoretical design is close to the limit. Therefore, it is almost impossible to further optimize and improve their performance. With the rapid development of artificial intelligence, the technology based on Machine Learning (ML) has achieved remarkable achievements in many fields. In view of this, in recent years, a number of new methods have emerged to solve combinatorial optimization problems by using ML-based techniques. These methods have the advantages of fast solving speed and strong generalization ability to unknown graphs, which provide a brand-new direction for solving combinatorial optimization problems. Therefore, we abandon the traditional algorithms based on iterative search and review the recent development of ML-based methods, especially Deep Reinforcement Learning, to solve the IM problem and other variants in social networks. We focus on summarizing the relevant background knowledge, basic principles, common methods, and applied research. Finally, the challenges that need to be solved urgently in future IM research are pointed out.
translated by 谷歌翻译
The design of good heuristics or approximation algorithms for NP-hard combinatorial optimization problems often requires significant specialized knowledge and trial-and-error. Can we automate this challenging, tedious process, and learn the algorithms instead? In many real-world applications, it is typically the case that the same optimization problem is solved again and again on a regular basis, maintaining the same problem structure but differing in the data. This provides an opportunity for learning heuristic algorithms that exploit the structure of such recurring problems. In this paper, we propose a unique combination of reinforcement learning and graph embedding to address this challenge. The learned greedy policy behaves like a meta-algorithm that incrementally constructs a solution, and the action is determined by the output of a graph embedding network capturing the current state of the solution. We show that our framework can be applied to a diverse range of optimization problems over graphs, and learns effective algorithms for the Minimum Vertex Cover, Maximum Cut and Traveling Salesman problems.
translated by 谷歌翻译
本文研究了深入的增强学习(DRL),以解决多个无人驾驶汽车(UAV)的任务调度问题。当前的方法通常使用精确的启发式算法来解决该问题,而随着任务量表的增长,计算时间迅速增加,并且启发式规则需要手动设计。作为一种自学方法,DRL可以在没有手工设计的规则的情况下快速获得高质量的解决方案。但是,巨大的决策空间使得在大规模任务的情况下,对DRL模型的培训变得不稳定。在这项工作中,为了解决大规模的问题,我们开发了一个基于鸿沟和征服的框架(DCF),以将原始问题与任务分配和无人机路由计划子问题分配,并在上层和下层解决,分别。基于DCF,提出了双层深钢筋学习方法(DL-DRL),其中高层DRL模型被设计为将任务分配给适当的无人机和下层DRL模型[即广泛使用的注意力模型(AM)]应用于生成可行的无人机路由。由于上层模型确定了低层模型的输入数据分布,并且在培训期间通过低层模型计算其奖励,因此我们制定了交互式训练策略(ITS),其中整个训练过程由PRE组成 - 培训,强化培训和替代培训过程。实验结果表明,我们的DL-DRL胜过基于主流学习和大多数传统方法的主体,并且与最新的启发式方法[即OR-Tools]具有竞争力,尤其是在大规模问题上。通过测试针对较大较大的模型学习的模型,还可以验证DL-DRL的巨大概括性。此外,一项消融研究表明,我们的它可以达到模型性能和训练持续时间之间的妥协。
translated by 谷歌翻译
强化学习和最近的深度增强学习是解决如Markov决策过程建模的顺序决策问题的流行方法。问题和选择算法和超参数的RL建模需要仔细考虑,因为不同的配置可能需要完全不同的性能。这些考虑因素主要是RL专家的任务;然而,RL在研究人员和系统设计师不是RL专家的其他领域中逐渐变得流行。此外,许多建模决策,例如定义状态和动作空间,批次的大小和批量更新的频率以及时间戳的数量通常是手动进行的。由于这些原因,RL框架的自动化不同组成部分具有重要意义,近年来它引起了很多关注。自动RL提供了一个框架,其中RL的不同组件包括MDP建模,算法选择和超参数优化是自动建模和定义的。在本文中,我们探讨了可以在自动化RL中使用的文献和目前的工作。此外,我们讨论了Autorl中的挑战,打开问题和研究方向。
translated by 谷歌翻译
近年来,行业和学术界的深度学习(DL)迅速发展。但是,找到DL模型的最佳超参数通常需要高计算成本和人类专业知识。为了减轻上述问题,进化计算(EC)作为一种强大的启发式搜索方法显示出在DL模型的自动设计中,所谓的进化深度学习(EDL)具有重要优势。本文旨在从自动化机器学习(AUTOML)的角度分析EDL。具体来说,我们首先从机器学习和EC阐明EDL,并将EDL视为优化问题。根据DL管道的说法,我们系统地介绍了EDL方法,从功能工程,模型生成到具有新的分类法的模型部署(即,什么以及如何发展/优化),专注于解决方案表示和搜索范式的讨论通过EC处理优化问题。最后,提出了关键的应用程序,开放问题以及可能有希望的未来研究线。这项调查回顾了EDL的最新发展,并为EDL的开发提供了有见地的指南。
translated by 谷歌翻译
雇用无人驾驶航空公司(无人机)吸引了日益增长的兴趣,并成为互联网(物联网)网络中的数据收集技术的最先进技术。在本文中,目的是最大限度地减少UAV-IOT系统的总能耗,我们制定了联合设计了UAV的轨迹和选择IOT网络中的群集头作为受约束的组合优化问题的问题,该问题被归类为NP-努力解决。我们提出了一种新的深度加强学习(DRL),其具有顺序模型策略,可以通过无监督方式有效地学习由UAV的轨迹设计来实现由序列到序列神经网络表示的策略。通过广泛的模拟,所获得的结果表明,与其他基线算法相比,所提出的DRL方法可以找到无人机的轨迹,这些轨迹需要更少的能量消耗,并实现近乎最佳性能。此外,仿真结果表明,我们所提出的DRL算法的训练模型具有出色的概括能力,对更大的问题尺寸而没有必要恢复模型。
translated by 谷歌翻译
影响最大化是挖掘社交网络深入信息的关键问题,该信息旨在选择从网络中选择种子以最大程度地增加受影响的节点的数量。为了评估种子套装的影响,现有的努力提出了拟议的代理模型(转换),以较低的计算成本来代替昂贵的蒙特卡洛模拟过程。这些基于网络先验知识的替代转换从各个角度引起具有相似特征的不同搜索行为。对于特定情况,用户很难先验确定合适的转换。在本文中,我们提出了一个多种转化的进化框架,以进行影响最大化(MTEFIM),并保证了融合保证,以利用替代转换的潜在相似性和独特的优势,并避免用户手动确定最合适的转换。在MTEFIM中,将多个转换同时优化为多个任务。每个转换均分配一个进化求解器。进行了MTEFIM的三个主要组成部分:1)根据不同人群的个人(种子集)重叠程度估算转化之间的潜在关系,2)根据转变关系,将个体转移到跨种群中,3)选择最终输出种子集,包含所有代理模型知识。 MTEFIM的有效性在基准和现实世界社交网络上得到了验证。实验结果表明,与几种流行的IM特异性方法相比,MTEFIM可以有效地利用跨多个转换的潜在转移知识,以实现高度竞争性能。可以在https://github.com/xiaofangxd/mtefim上访问MTEFIM的实现。
translated by 谷歌翻译
最佳的井位置和井注射生产对于储层开发至关重要,以最大程度地利用项目寿命。荟萃分析算法在解决复杂,非线性和非连续优化问题方面表现出良好的性能。但是,在优化过程中涉及大量数值模拟运行。在这项工作中,提出了一种新颖,有效的数据驱动的进化算法,称为通用数据驱动的差异进化算法(GDDE),以减少在良好的设置和控制优化问题上运行的模拟数量。概率神经网络(PNN)被用作选择信息性和有前途的候选者的分类器,并且基于欧几里得距离的最不确定的候选者被预先筛选并使用数值模拟器进行评估。随后,局部替代模型是通过径向基函数(RBF)构建的,优化器发现的替代物的最佳构建,由数值模拟器评估以加速收敛。值得注意的是,RBF模型和PNN的形状因子是通过解决高参数次级优化的优化问题来优化的。结果表明,这项研究中提出的优化算法对于二维储层和卵模型的关节优化的良好选择优化问题非常有前途。
translated by 谷歌翻译