算法配置器是一种自动化方法,用于优化算法的参数以解决一类问题。我们评估一个简单随机局部搜索配置器(ParamRLS)的性能,用于调整RLS $ _k $算法的邻域大小$ k $。我们将性能测量为确定参数最佳值所需的预期配置评估数。我们分析截止时间$ \ kappa $(评估问题实例的配置的时间)对查找最佳参数值所需的预期配置评估次数的影响,我们使用最佳找到的适应值比较配置(ParamRLS-F) )或优化时间(ParamRLS-T)。我们考虑为Ridge函数类(Ridge *)的变体调整RLS $ _k $,其中每个参数值的性能在运行期间不会改变,而对于OneMax函数类,其中较长的运行有利于较小的$ k $。我们严格证明ParamRLS-F可以为任何$ \ kappa $有效地为Ridge *调整RLS $ _k $,而ParamRLS-T至少需要aquadratic。对于OneMax,ParamRLS-F将$ k = 1 $标识为线性$ \ kappa $的最佳值,而ParamRLS-T需要$ \ kappa $至少$ \ Omega(n \ log n)$。对于较小的$ \ kappa $ ParamRLS -F标识$ k> 1 $表现更好而paramRLS-T返回随机均匀选择的$ k $。
translated by 谷歌翻译
在这项工作中,提出了一个进化艺术项目,其中图像区域通过不同类型的透明,重叠和几何形状(例如,多边形,圆形,线条)进行近似。表示几何形状的特征和顺序的基因型利用适应度函数进化,该适应度函数具有输入图像的相应像素作为目标目标。因此,将基因型 - 表型作图应用于渲染图像,因为选择的遗传表示是间接的,即基因型不包括像素,而是形状与其性质的组合。形状,形状数量,突变类型和种群的不同组合进行了测试。这里的工作目标有两个:(1)用进化的间接编码尽可能精确地近似图像,(2)产生视觉上吸引人的结果和新颖的艺术风格。
translated by 谷歌翻译
深度神经网络是根据许多交替排列的线性和非线性变换的信号的多层映射的参数化。线性变换通常用于连接层和卷积层,包含大多数训练和存储的变分参数。压缩深度神经网络以减少其变化参数的数量而不是其预测能力是一个重要但具有挑战性的问题,即在有效地训练这些参数和降低过度拟合的风险方面建立优化方案。在这里,我们表明通过使用矩阵乘积算子(MPO)表示线性变换可以有效地解决这个问题。我们在五个主要的神经网络中测试了这种方法,包括FC2,LeNet-5,VGG,ResNet和DenseNet两个广泛使用的数据集,即MNIST和CIFAR-10,并且发现这个MPO表示确实在输入之间建立了忠实和有效的映射。和输出信号,可以显着减少参数数量,从而保持甚至提高预测精度。
translated by 谷歌翻译
可以利用健康领域中的大量数据来创建预测健康状态随时间发展的模型。时态学习算法非常适合学习健康状态之间的关系,并对未来的发展做出预测。然而,这些算法:(1)要么专注于为所有患者学习一个通用模型,提供一般的见解,但往往具有有限的预测性能,或者(2)学习从中难以推导出一般概念的个体化模型。在本文中,我们提出了一个中间点,即使用遗传编程(GP)框架从数据生成的参数化动态系统模型。开发了适用于健康领域的适应度函数。对心理健康领域方法的评估表明,GP生成的模型的性能与基于领域知识开发的动态系统模型相当,明显优于通用长期短期记忆(LSTM)模型,在某些情况下也优于个性化的LSTM模型。
translated by 谷歌翻译
漂移分析旨在将进化算法(或更一般地,随机过程)的预期进展转化为其运行时间(命中时间)的概率保证。到目前为止,漂移参数已经成功地用于严格的进化算法分析,但是,只有在接近目标时进展恒定或变弱的情况。通过诸如适合个体接管人口的快速性等问题的激励,我们分析了表现出预期乘法增长的随机过程。我们证明了一个漂移定理将这个预期的进展转化为命中时间。这个漂移定理给出了Lehre(2011)首次提出的基于水平定理的简单而有见地的证明。我们这个定理的版本第一次具有对增长参数$ \ delta $的最佳线性依赖性(前一个最好的是二次方)。这为许多应用程序提供了立即更强的运行时保证。
translated by 谷歌翻译
本文涉及多语言对话行为(DA)识别。提出的方法基于深度神经网络,并使用word2vecembeddings进行单词表示。为此任务提出了两种多语言模型。第一种方法使用一种在所有可用语言的嵌入上训练的通用模型。第二种方法使用单一旋转语言训练模型,并使用线性变换方法将其他语言投影到枢轴语言上。使用具有不同设置的流行卷积神经网络和LSTM架构作为分类器。据我们所知,这是使用神经网络进行多语言DA识别的第一次尝试。多语言模型通过Verbmobil语料库的两种语言进行实验验证。
translated by 谷歌翻译
多任务算法通常使用任务相似性信息作为偏差,并提高学习过程的性能。任务是共同学习的,在它们之间共享信息,以便构建比单独任务单独学习的模型更准确的模型。在这篇文章中,我们根据HopfieldNetworks(HNs)提出了第一个多任务模型,名为HoMTask。我们表明,通过适当地构建嵌入所有任务的uniqueHN,可以获得更健壮和有效的分类模型。 HoMTask是一种转换半监督参数HN,它将扩展到所有节点和所有任务的能量函数最小化。我们提供理论证据,证明HoMTask自动估计的最优参数使模型本身与先验知识(连接权重和节点标签)保持一致。保留了HN的收敛性质,网络动态达到的固定点引起了未标记节点的预测。所提出的模式在初步基准比较中改进了单任HN的分类能力,并且利用现有技术的半监督基于图的算法实现了竞争性能。
translated by 谷歌翻译
传统上,信号分类是需要先前的信号知识的过程。人类专家决定从信号中提取哪些特征,并用作分类系统的输入。这种要求可以使专家错过信号的重要未知信息,而不包括在特征中。本文提出了一种新的方法,可以自动分析信号并提取特征而无需任何人参与。因此,不需要关于要分类的信号的先前知识。所提出的方法基于遗传编程,并且为了测试该方法,它已经应用于与癫痫有关的众所周知的EEG数据库,癫痫是数百万人遭受的疾病。如结果部分所示,获得了高分类精度
translated by 谷歌翻译
二进制值函数或BinVal已经出现在进化计算理论的几个研究中,作为线性假 - 布尔函数的极端例子之一。其无偏见的黑盒复杂性以前只有$ \ lceil \ log_2 n \ rceil + 2 $,其中$ n $是问题。我们用$ \ log_2 n + 2.42141558 - o(1)$的上限来增加它,这对于$ n $的许多值更精确。我们还提供$ \ log_2 n + 1.1186406 - o(1)$的下限。此外,我们证明BinVal是所有单峰伪布尔函数中最容易的函数,至少对于无偏差算法。
translated by 谷歌翻译
生物医学数据的数据挖掘和数据分类是计算机科学中最重要的两个研究领域。在可用于此目的的各种技术中,人工神经网络(ANNs)是最适合的技术之一。该技术发展的主要问题之一是整个过程的性能缓慢。传统上,在这个开发过程中,人类专家需要尝试不同的架构程序,直到找到能够解决特定问题的正确结果。然而,已经出现了许多研究,其中描述了不同的ANN发展技术,或多或少地自动化。在本文中,作者专注于开发一种新技术来对生物医学数据进行这一过程。描述了两种进化计算(EC)技术被混合以自动开发ANN的新技术。这些技术是遗传算法和遗传编程。这项工作更进一步,这里描述的系统允许获得具有少量神经元的简化网络来解决问题。将该系统与已存在的系统进行比较,该系统将EC与一系列众所周知的问题相对应。从这些比较中得出的结论表明,这种新系统产生了非常好的结果,在最坏的情况下至少与现有技术相当,并且在许多情况下实质上更好。
translated by 谷歌翻译