Bayesian optimization is a sample-efficient approach to global optimization that relies on theoretically motivated value heuristics (acquisition functions) to guide its search process. Fully maximizing acquisition functions produces the Bayes' decision rule, but this ideal is difficult to achieve since these functions are frequently non-trivial to optimize. This statement is especially true when evaluating queries in parallel, where acquisition functions are routinely non-convex, high-dimensional, and intractable. We first show that acquisition functions estimated via Monte Carlo integration are consistently amenable to gradient-based optimization. Subsequently, we identify a common family of acquisition functions, including EI and UCB, whose properties not only facilitate but justify use of greedy approaches for their maximization.
translated by 谷歌翻译
在许多实际应用中学习小数据集是关键的,其中数据收集是耗时的或昂贵的,例如机器人,动画实验或药物设计。元学习是通过将学习概念从一组训练任务推广到看不见但相关的任务来提高学习算法的数据效率的一种方法。通常,任务之间的这种关系是硬编码的,或者以某种其他方式依赖于人类的专业知识。在本文中,我们将元学习框架化为层次潜变量模型,并从数据中自动推断任务之间的关系。我们在基于模型的强化学习环境中应用我们的框架,并通过识别新任务与最小任务与最小数据相关的新任务,有效地推广了新的任务。与强大的基线相比,这使得解决任务所需的平均交互时间缩短了60%。
translated by 谷歌翻译
Off-the-shelf Gaussian Process (GP) covariance functions encode smoothnessassumptions on the structure of the function to be modeled. To model complexand non-differentiable functions, these smoothness assumptions are often toorestrictive. One way to alleviate this limitation is to find a differentrepresentation of the data by introducing a feature space. This feature spaceis often learned in an unsupervised way, which might lead to datarepresentations that are not useful for the overall regression task. In thispaper, we propose Manifold Gaussian Processes, a novel supervised method thatjointly learns a transformation of the data into a feature space and a GPregression from the feature space to observed space. The Manifold GP is a fullGP and allows to learn data representations, which are useful for the overallregression task. As a proof-of-concept, we evaluate our approach on complexnon-smooth functions where standard GPs perform poorly, such as step functionsand robotics tasks with contacts.
translated by 谷歌翻译
条件密度估计(CDE)模型处理估计条件分布。对分配施加的条件是模型的输入。 CDE是一项具有挑战性的任务,因为模型复杂性,代表性能力和过度拟合之间存在根本的权衡。在这项工作中,我们建议用潜在变量扩展模型的输入,并使用高斯过程(GP)将这个增强的输入映射到条件分布的样本上。我们的贝叶斯方法允许对小数据集进行建模,但我们也提供了使用随机变分推理将其应用于大数据的机制。我们的方法可用于在稀疏数据区域中对densitieseven进行建模,并允许在条件之间共享学习结构。我们说明了我们的模型在各种现实问题上的有效性和广泛适用性,例如出租车下降的时空密度估计,非高斯噪声建模,以及对全方位图像的少量学习。
translated by 谷歌翻译
高斯过程(GP)为功能的推理提供了强大的非参数框架。尽管有吸引人的理论,但它的超线性计算和记忆复杂性已经提出了长期的挑战。最先进的稀疏变分推理方法将建模精度与复杂性进行交易。然而,这些方法的复杂性仍然在基础函数的数量上仍然是超线性的,这意味着稀疏的GP方法只有在使用小型模型时才能从大型数据集中学习。最近,提出了一种解耦方法,消除了对GP的均值和协方差函数建模的复杂性之间的不必要的耦合。它实现了平均参数数量的线性复杂性,因此可以建模表达后验均值函数。虽然有希望,但这种方法由于调节和非凸性而受到优化困难的影响。在这项工作中,我们提出了一种替代的解耦参数化。它采用平均函数的正交基来模拟标准耦合方法无法学习的残差。因此,我们的方法扩展而不是取代耦合方法,以达到严格更好的性能。这种结构允许直接自然的梯度更新规则,因此可以利用在解耦期间丢失的信息流的结构来加速学习。根据经验,我们的算法在多个实验中表现出明显更快的收敛。
translated by 谷歌翻译
生物进化提供了复杂和微妙的适应性的创造性源泉,通常令发现它们的科学家感到惊讶。然而,因为进化是一种超越其发生的基质的算法过程,所以进化的创造力不仅限于自然。实际上,数字进化领域的许多研究人员已经观察到他们的进化算法和有机体颠覆了他们的意图,在他们的代码中暴露了未被识别的局部,产生了意想不到的适应性,或者表现出与自然界中的结果一致的结果。这些故事通常会在这些数字世界中通过进化来揭示创造力,但它们很少符合标准的科学叙事。相反,它们通常被视为仅仅被克服的障碍,而不是需要自己研究的结果。故事本身通过口头传统在研究人员之间进行交易,但信息传播方式效率低下,容易出错和直接损失。而且,这些故事往往只与实践者共享这一事实意味着许多自然科学家并没有意识到有趣的数字生物是多么有趣,他们的进化是多么自然。据我们所知,此前没有出版过这类轶事的集合。本文是研究人员在人工生命和进化计算领域的众包产品,他们提供了这类案件的第一手资料。因此,它可以作为一个经过实际检验的书面文集,收集科学上重要的,甚至是有趣的故事。在这样做的同时,我们在这里也有大量的证据表明,进化意外的存在和重要性超越了自然界,并且可能确实是所有复杂演化系统的通用属性。
translated by 谷歌翻译
生产软件一年中发现了数千个安全漏洞,这些漏洞要么公开报告给常见漏洞和暴露数据库,要么在内部用专有代码发现。漏洞通常以微妙的方式表现出来,这对于编写评论者或开发人员本身并不明显。利用丰富的开源代码进行分析,有机会了解可能直接从数据导致安全漏洞的错误模式。在本文中,我们使用机器学习提出了adata驱动的漏洞检测方法,特别适用于C和C ++程序。我们首先编译一个由数十万个开源函数组成的大型数据集,这些函数用标准分析器的输出标记。然后,我们将直接应用于源代码的方法与应用于从构建过程中提取的工件的方法进行比较,发现基于源的模型执行得更好。我们还将深层网络模型的应用与随机森林等更传统的模型进行了比较,发现最佳性能来自深层模型与基于树的模型相结合的特征。最终,我们的最高性能模型在精确回忆曲线0.49和ROC曲线下面积为0.87的条件下实现了分析。
translated by 谷歌翻译
Gaussian processes (GPs) are a good choice for function approximation as theyare flexible, robust to over-fitting, and provide well-calibrated predictiveuncertainty. Deep Gaussian processes (DGPs) are multi-layer generalisations ofGPs, but inference in these models has proved challenging. Existing approachesto inference in DGP models assume approximate posteriors that forceindependence between the layers, and do not work well in practice. We present adoubly stochastic variational inference algorithm, which does not forceindependence between layers. With our method of inference we demonstrate that aDGP model can be used effectively on data ranging in size from hundreds to abillion points. We provide strong empirical evidence that our inference schemefor DGPs works well in practice in both classification and regression.
translated by 谷歌翻译
目前用于深度学习的算法可能不能在大脑中运行,因为它们依赖于权重传输,其中前向路径神经元以可能在生理学上不可能的方式将突触权重传递到反馈路径。一种称为反馈对齐的算法通过使用随机反馈权重实现了无需权重传输的深度学习,但它可以在硬视觉识别任务上执行。在这里,我们描述了一个神经环绕的重量镜,它使反馈路径即使在大型网络中也可以快速准确地学习适当的突触重量,无需重量传输或复杂布线,并具有Hebbian学习规则。在ImageNetvisual识别任务上进行测试,具有权重镜像的网络优于普通反馈对齐和较新的符号对称方法,并且几乎匹配使用权重传输的误差反向传播算法。
translated by 谷歌翻译