最近的机器学习进展已直接从数据中直接提出了对未知连续时间系统动力学的黑盒估计。但是,较早的作品基于近似ODE解决方案或点估计。我们提出了一种新型的贝叶斯非参数模型,该模型使用高斯工艺直接从数据中直接从数据中推断出未知ODE系统的后代。我们通过脱钩的功能采样得出稀疏的变异推断,以表示矢量场后代。我们还引入了一种概率的射击增强,以从任意长的轨迹中有效推断。该方法证明了计算矢量场后代的好处,预测不确定性得分优于多个ODE学习任务的替代方法。
translated by 谷歌翻译
线性系统发生在整个工程和科学中,最著名的是差分方程。在许多情况下,系统的强迫函数尚不清楚,兴趣在于使用对系统的嘈杂观察来推断强迫以及其他未知参数。在微分方程中,强迫函数是自变量(通常是时间和空间)的未知函数,可以建模为高斯过程(GP)。在本文中,我们展示了如何使用GP内核的截断基础扩展,如何使用线性系统的伴随有效地推断成GP的功能。我们展示了如何实现截短的GP的确切共轭贝叶斯推断,在许多情况下,计算的计算大大低于使用MCMC方法所需的计算。我们证明了普通和部分微分方程系统的方法,并表明基础扩展方法与数量适中的基础向量相近。最后,我们展示了如何使用贝叶斯优化来推断非线性模型参数(例如内核长度尺度)的点估计值。
translated by 谷歌翻译
The kernel function and its hyperparameters are the central model selection choice in a Gaussian proces (Rasmussen and Williams, 2006). Typically, the hyperparameters of the kernel are chosen by maximising the marginal likelihood, an approach known as Type-II maximum likelihood (ML-II). However, ML-II does not account for hyperparameter uncertainty, and it is well-known that this can lead to severely biased estimates and an underestimation of predictive uncertainty. While there are several works which employ a fully Bayesian characterisation of GPs, relatively few propose such approaches for the sparse GPs paradigm. In this work we propose an algorithm for sparse Gaussian process regression which leverages MCMC to sample from the hyperparameter posterior within the variational inducing point framework of Titsias (2009). This work is closely related to Hensman et al. (2015b) but side-steps the need to sample the inducing points, thereby significantly improving sampling efficiency in the Gaussian likelihood case. We compare this scheme against natural baselines in literature along with stochastic variational GPs (SVGPs) along with an extensive computational analysis.
translated by 谷歌翻译
非线性状态空间模型是一种强大的工具,可以在复杂时间序列中描述动态结构。在一个流的媒体设置中,当一次处理一个样本的情况下,状态的同时推断及其非线性动力学在实践中提出了重大挑战。我们开发了一个小说在线学习框架,利用变分推理和顺序蒙特卡罗,这使得灵活和准确的贝叶斯联合过滤。我们的方法提供了滤波后的近似,这可以任意地接近针对广泛的动态模型和观察模型的真正滤波分布。具体地,所提出的框架可以使用稀疏高斯过程有效地近似于动态的后验,允许潜在动力学的可解释模型。每个样本的恒定时间复杂性使我们的方法能够适用于在线学习场景,适用于实时应用。
translated by 谷歌翻译
高斯过程状态空间模型通过在转换功能上放置高斯过程来以原则方式捕获复杂的时间依赖性。这些模型具有自然的解释,作为离散的随机微分方程,但困难的长期序列的推断是困难的。快速过渡需要紧密离散化,而慢速转换需要在长副图层上备份梯度。我们提出了一种由多个组件组成的新型高斯过程状态空间架构,每个组件都培训不同的分辨率,以对不同时间尺度进行模拟效果。组合模型允许在自适应刻度上进行时间进行时间,为具有复杂动态的任意长序列提供有效推断。我们在半合成数据和发动机建模任务上基准我们的新方法。在这两个实验中,我们的方法对其最先进的替代品仅比单一时间级运行的最先进的替代品。
translated by 谷歌翻译
与高斯过程(GPS)的变异近似通常使用一组诱导点来形成与协方差矩阵的低级别近似值。在这项工作中,我们相反利用了精度矩阵的稀疏近似。我们提出了差异最近的邻居高斯工艺(VNNGP),该过程引入了先验,该过程仅保留在k最近的邻居观测中的相关性,从而诱导稀疏精度结构。使用变分框架,可以将VNNGP的目标分解在观测值和诱导点上,从而以O($ k^3 $)的时间复杂性实现随机优化。因此,我们可以任意扩展诱导点大小,甚至可以在每个观察到的位置放置诱导点。我们通过各种实验将VNNGP与其他可扩展的GP进行比较,并证明VNNGP(1)可以极大地超过低级别方法,而(2)比其他最近的邻居方法较不适合过度拟合。
translated by 谷歌翻译
物理启发的潜力模型为纯粹的数据驱动工具提供可解释的替代品,用于动态系统的推断。它们携带微分方程的结构和高斯过程的灵活性,产生可解释的参数和动态施加的潜在功能。然而,与这些模型相关联的现有推理技术依赖于在分析形式中很少可用的后内核术语的精确计算。大多数与从业者相关的应用程序,例如Hill方程或扩散方程,因此是棘手的。在本文中,我们通过提出对一般类非线性和抛物面部分微分方程潜力模型的变分解决方案来克服这些计算问题。此外,我们表明,神经操作员方法可以将我们的模型扩展到数千个实例,实现快速,分布式计算。我们通过在几个任务中实现竞争性能,展示了我们框架的效力和灵活性,其中核的核心不同程度的遗传性。
translated by 谷歌翻译
本论文主要涉及解决深层(时间)高斯过程(DGP)回归问题的状态空间方法。更具体地,我们代表DGP作为分层组合的随机微分方程(SDES),并且我们通过使用状态空间过滤和平滑方法来解决DGP回归问题。由此产生的状态空间DGP(SS-DGP)模型生成丰富的电视等级,与建模许多不规则信号/功能兼容。此外,由于他们的马尔可道结构,通过使用贝叶斯滤波和平滑方法可以有效地解决SS-DGPS回归问题。本论文的第二次贡献是我们通过使用泰勒力矩膨胀(TME)方法来解决连续离散高斯滤波和平滑问题。这诱导了一类滤波器和SmooThers,其可以渐近地精确地预测随机微分方程(SDES)解决方案的平均值和协方差。此外,TME方法和TME过滤器和SmoOthers兼容模拟SS-DGP并解决其回归问题。最后,本文具有多种状态 - 空间(深)GPS的应用。这些应用主要包括(i)来自部分观察到的轨迹的SDES的未知漂移功能和信号的光谱 - 时间特征估计。
translated by 谷歌翻译
物理建模对于许多现代科学和工程应用至关重要。从数据科学或机器学习的角度来看,更多的域 - 不可吻合,数据驱动的模型是普遍的,物理知识 - 通常表示为微分方程 - 很有价值,因为它与数据是互补的,并且可能有可能帮助克服问题例如数据稀疏性,噪音和不准确性。在这项工作中,我们提出了一个简单但功能强大且通用的框架 - 自动构建物理学,可以将各种微分方程集成到高斯流程(GPS)中,以增强预测准确性和不确定性量化。这些方程可以是线性或非线性,空间,时间或时空,与未知的源术语完全或不完整,等等。基于内核分化,我们在示例目标函数,方程相关的衍生物和潜在源函数之前构建了GP,这些函数全部来自多元高斯分布。采样值被馈送到两个可能性:一个以适合观测值,另一个符合方程式。我们使用美白方法来逃避采样函数值和内核参数之间的强依赖性,并开发出一种随机变分学习算法。在模拟和几个现实世界应用中,即使使用粗糙的,不完整的方程式,自动元素都显示出对香草GPS的改进。
translated by 谷歌翻译
高斯流程(GPS)实际应用的主要挑战是选择适当的协方差函数。 GPS的移动平均值或过程卷积的构建可以提供一些额外的灵活性,但仍需要选择合适的平滑核,这是非平凡的。以前的方法通过在平滑内核上使用GP先验,并通过扩展协方差来构建协方差函数,以绕过预先指定它的需求。但是,这样的模型在几种方面受到限制:它们仅限于单维输入,例如时间;它们仅允许对单个输出进行建模,并且由于推理并不简单,因此不会扩展到大型数据集。在本文中,我们引入了GPS的非参数过程卷积公式,该公式通过使用基于Matheron规则的功能采样方法来减轻这些弱点,以使用诱导变量的间域间采样进行快速采样。此外,我们提出了这些非参数卷积的组成,可作为经典深度GP模型的替代方案,并允许从数据中推断中间层的协方差函数。我们测试了单个输出GP,多个输出GPS和DEEP GPS在基准测试上的模型性能,并发现在许多情况下,我们的方法可以提供比标准GP模型的改进。
translated by 谷歌翻译
具有微分方程的机械模型是机器学习科学应用的关键组成部分。这种模型中的推论通常在计算上是要求的,因为它涉及重复求解微分方程。这里的主要问题是数值求解器很难与标准推理技术结合使用。概率数字中的最新工作已经开发了一类新的用于普通微分方程(ODE)的求解器,该方程式直接用贝叶斯过滤词来表达解决方案过程。我们在这里表明,这允许将此类方法与概念和数值易于宽容地结合在一起,并在ODE本身中与潜在力模型结合在一起。然后,可以在潜在力和ode溶液上执行近似贝叶斯推断,并在一个线性复杂度传递中进行扩展的卡尔曼滤波器 /更平滑的线性复杂度,也就是说,以计算单个ODE解决方案为代价。我们通过培训表明了算法的表达和性能,以及其他训练中的非参数SIRD模型。
translated by 谷歌翻译
大多数物理过程具有结构性属性,例如恒定的能量,卷和其他不变性随着时间的推移。当这种动态系统的学习模型时,尊重这些不变性是至关重要的,以确保准确的预测和物理上有意义的行为。引人注目地,高斯过程中的最先进的方法(GP)动态模型学习没有解决这个问题。另一方面,经典的数值积分器专门设计用于通过时间保持这些关键特性。我们建议将GPS的优势与具有用于动态系统的结构保留数值积分器的功能近似器,例如跳动 - 库特拉方法。这些集成商假设访问地面真理动态,并要求对基于学习的场景中未知的中间和未知的中间和未来时间步骤进行评估。这使得GP动力学的直接推动,具有嵌入式数字方案,棘爪。我们的主要技术贡献是评估隐式定义的runge-Kutta转换概率。简而言之,我们介绍了一种用于GP回归的隐式层,其嵌入到基于变分的推断的模型学习方案中。
translated by 谷歌翻译
随机过程提供了数学上优雅的方式模型复杂数据。从理论上讲,它们为可以编码广泛有趣的假设的功能类提供了灵活的先验。但是,实际上,难以通过优化或边缘化来有效推断,这一问题进一步加剧了大数据和高维输入空间。我们提出了一种新颖的变性自动编码器(VAE),称为先前的编码变量自动编码器($ \ pi $ vae)。 $ \ pi $ vae是有限的交换且Kolmogorov一致的,因此是一个连续的随机过程。我们使用$ \ pi $ vae学习功能类的低维嵌入。我们表明,我们的框架可以准确地学习表达功能类,例如高斯流程,也可以学习函数的属性以启用统计推断(例如log高斯过程的积分)。对于流行的任务,例如空间插值,$ \ pi $ vae在准确性和计算效率方面都达到了最先进的性能。也许最有用的是,我们证明了所学的低维独立分布的潜在空间表示提供了一种优雅,可扩展的方法,可以在概率编程语言(例如Stan)中对随机过程进行贝叶斯推断。
translated by 谷歌翻译
使用黑框模型(例如神经普通微分方程(ODE))对动态系统的端到端学习为从数据中学习动力学的灵活框架提供了一个灵活的框架,而无需为动力学开出数学模型。不幸的是,这种灵活性是基于理解动态系统的成本,而该系统无处不在。此外,在各种条件(输入)(例如处理)或以某种方式分组(例如子人群的一部分)中收集了实验数据。了解这些系统输入对系统输出的影响对于具有动态系统的任何有意义的模型至关重要。为此,我们提出了一个结构化的潜在ode模型,该模型明确捕获了其潜在表示内的系统输入变化。在静态潜在变量规范的基础上,我们的模型学习了(独立的)随机因素,每个输入的系统输入的变异因素,从而将系统输入在潜在空间中的效果分开。该方法通过受控生成的时间序列数据提供了可行的建模,以实现新颖的输入组合(或扰动)。此外,我们提出了一种量化不确定性的灵活方法,利用分位数回归公式。在受到挑战的生物数据集上,在观测数据的受控生成和生物学上有意义的系统输入的推理中,对竞争基准的结果保持一致。
translated by 谷歌翻译
粒子过滤是针对多种顺序推断任务的标准蒙特卡洛方法。粒子过滤器的关键成分是一组具有重要性权重的粒子,它们可以作为某些随机过程的真实后验分布的代理。在这项工作中,我们提出了连续的潜在粒子过滤器,该方法将粒子过滤扩展到连续时域。我们证明了如何将连续的潜在粒子过滤器用作依赖于学到的变异后验的推理技术的通用插件替换。我们对基于潜在神经随机微分方程的不同模型家族进行的实验表明,在推理任务中,连续时间粒子滤波在推理任务中的卓越性能,例如似然估计和各种随机过程的顺序预测。
translated by 谷歌翻译
贝叶斯神经网络和深度集合代表了深入学习中不确定性量化的两种现代范式。然而,这些方法主要因内存低效率问题而争取,因为它们需要比其确定性对应物高出几倍的参数储存。为了解决这个问题,我们使用少量诱导重量增强每层的重量矩阵,从而将不确定性定量突出到这种低尺寸空间中。我们进一步扩展了Matheron的有条件高斯采样规则,以实现快速的重量采样,这使得我们的推理方法能够与合并相比保持合理的运行时间。重要的是,我们的方法在具有完全连接的神经网络和RESNET的预测和不确定性估算任务中实现了竞争性能,同时将参数大小减少到$单辆$ \ LEQ 24.3 \%$的参数大小神经网络。
translated by 谷歌翻译
隐式过程(IPS)代表一个灵活的框架,可用于描述各种模型,从贝叶斯神经网络,神经抽样器和数据生成器到许多其他模型。 IP还允许在功能空间上进行大致推断。公式的这种变化解决了参数空间的固有退化问题近似推断,即参数数量及其在大型模型中的强大依赖性。为此,文献中先前的作品试图采用IPS来设置先验并近似产生的后部。但是,这被证明是一项具有挑战性的任务。现有的方法可以调整先前的IP导致高斯预测分布,该分布未能捕获重要的数据模式。相比之下,通过使用另一个IP近似后验过程产生灵活预测分布的方法不能将先前的IP调整到观察到的数据中。我们在这里建议第一个可以实现这两个目标的方法。为此,我们依赖于先前IP的诱导点表示,就像在稀疏高斯过程中所做的那样。结果是一种可扩展的方法,用于与IP的近似推断,可以将先前的IP参数调整到数据中,并提供准确的非高斯预测分布。
translated by 谷歌翻译
Temporal data like time series are often observed at irregular intervals which is a challenging setting for existing machine learning methods. To tackle this problem, we view such data as samples from some underlying continuous function. We then define a diffusion-based generative model that adds noise from a predefined stochastic process while preserving the continuity of the resulting underlying function. A neural network is trained to reverse this process which allows us to sample new realizations from the learned distribution. We define suitable stochastic processes as noise sources and introduce novel denoising and score-matching models on processes. Further, we show how to apply this approach to the multivariate probabilistic forecasting and imputation tasks. Through our extensive experiments, we demonstrate that our method outperforms previous models on synthetic and real-world datasets.
translated by 谷歌翻译
在许多学科中,动态系统的数据信息预测模型的开发引起了广泛的兴趣。我们提出了一个统一的框架,用于混合机械和机器学习方法,以从嘈杂和部分观察到的数据中识别动态系统。我们将纯数据驱动的学习与混合模型进行比较,这些学习结合了不完善的域知识。我们的公式与所选的机器学习模型不可知,在连续和离散的时间设置中都呈现,并且与表现出很大的内存和错误的模型误差兼容。首先,我们从学习理论的角度研究无内存线性(W.R.T.参数依赖性)模型误差,从而定义了过多的风险和概括误差。对于沿阵行的连续时间系统,我们证明,多余的风险和泛化误差都通过与T的正方形介于T的术语(指定训练数据的时间间隔)的术语界定。其次,我们研究了通过记忆建模而受益的方案,证明了两类连续时间复发性神经网络(RNN)的通用近似定理:两者都可以学习与内存有关的模型误差。此外,我们将一类RNN连接到储层计算,从而将学习依赖性错误的学习与使用随机特征在Banach空间之间进行监督学习的最新工作联系起来。给出了数值结果(Lorenz '63,Lorenz '96多尺度系统),以比较纯粹的数据驱动和混合方法,发现混合方法较少,渴望数据较少,并且更有效。最后,我们从数值上证明了如何利用数据同化来从嘈杂,部分观察到的数据中学习隐藏的动态,并说明了通过这种方法和培训此类模型来表示记忆的挑战。
translated by 谷歌翻译
我们制定自然梯度变推理(VI),期望传播(EP),和后线性化(PL)作为牛顿法用于优化贝叶斯后验分布的参数扩展。这种观点明确地把数值优化框架下的推理算法。我们表明,通用近似牛顿法从优化文献,即高斯 - 牛顿和准牛顿方法(例如,该BFGS算法),仍然是这种“贝叶斯牛顿”框架下有效。这导致了一套这些都保证以产生半正定协方差矩阵,不像标准VI和EP新颖算法。我们统一的观点提供了新的见解各种推理方案之间的连接。所有提出的方法适用于具有高斯事先和非共轭的可能性,这是我们与(疏)高斯过程和状态空间模型展示任何模型。
translated by 谷歌翻译