我们开发了一种结合马尔可夫链蒙特卡罗(MCMC)和变分推理(VI)的方法,充分利用了两种推理方法的优点。具体来说,我们通过运行一些MCMC步骤来改进变分分布。为了使推理容易处理,我们引入了变分对比分歧(VCD),这是一种新的分歧,取代了VI中使用的标准的Kullback-Leibler(KL)分歧。 VCD捕获了初始变分分布与其改进转换(在运行MCMC步骤之后获得)之间的差异概念,并且它渐渐地收敛于变分分布和感兴趣后验之间的对称KL分歧。通过随机优化,可以相对于变分参数优化VCD目标。我们通过实验证明,优化VCD可以在两个潜变量模型上获得更好的预测性能:逻辑矩阵因子化和变分自动编码器(VAE)。
translated by 谷歌翻译
我们介绍了一种基于功能空间上的近似贝叶斯推理而不是深度神经网络参数的有监督连续学习的新方法。我们使用通过将神经网络的最后一层的权重视为随机和高斯分布而获得的高斯过程。用于连续学习的功能正则化自然地通过以顺序方式应用变分稀疏GP推理方法来遇到新任务。在该过程的每个步骤中,构造当前任务的概要,其包括(i)诱导输入和(ii)在这些输入处的函数值的后验分布。本摘要通过出现在变分下界中的Kullback-Leiblerregularisation术语来定期学习未来任务,并减少灾难性遗忘的影响。我们充分发展了方法理论,并证明了它在分类数据集中的有效性,如Split-MNIST,Permuted-MNIST和Omniglot。
translated by 谷歌翻译
我们提出了一个概率框架,通过将行为策略定义为贝叶斯后验分布,直接在重新学习(RL)算法中插入先验知识。这种后验将任务特定信息与先验知识相结合,从而允许实现跨任务的转移学习。由此产生的方法是灵活的,它可以很容易地与任何标准的非政策和政策算法相结合,例如基于时间差异和政策梯度的算法。我们通过将先验知识表示为可用于各种任务(例如导航任务)的一般确定性规则来开发此贝叶斯转移RL框架的特定实例。此外,我们通过开发一种新的时间学习算法详细阐述了近期概率的熵正则化RL,并展示了如何将其与贝叶斯转移RL相结合。最后,我们展示了解决迷宫的方法,并证明可以获得显着的加速。
translated by 谷歌翻译
我们引入了完全可扩展的高斯过程,这是一种实现方案,解决了与高维输入数据一起处理大量训练实例的问题。我们的关键思想是在诱导变量(称为子空间诱导输入)之上的表示技巧。这与基于矩阵预处理的变分分布的参数化相结合,这导致简化和数值稳定的变分下界。我们的说明性应用程序基于挑战极端多标签分类问题,以及大量类标签的额外负担。我们通过呈现预测性能以及具有极大数量的实例和输入维度的低计算时间indatase来证明我们的方法的有用性。
translated by 谷歌翻译
The reparameterization gradient has become a widely used method to obtainMonte Carlo gradients to optimize the variational objective. However, thistechnique does not easily apply to commonly used distributions such as beta orgamma without further approximations, and most practical applications of thereparameterization gradient fit Gaussian distributions. In this paper, weintroduce the generalized reparameterization gradient, a method that extendsthe reparameterization gradient to a wider class of variational distributions.Generalized reparameterizations use invertible transformations of the latentvariables which lead to transformed distributions that weakly depend on thevariational parameters. This results in new Monte Carlo gradients that combinereparameterization gradients and score function gradients. We demonstrate ourapproach on variational inference for two complex probabilistic models. Thegeneralized reparameterization is effective: even a single sample from thevariational distribution is enough to obtain a low-variance gradient.
translated by 谷歌翻译
Hessian矩阵在各种不同的领域中具有许多重要的应用,例如优化,图像处理和统计。在本文中,我们将重点放在使用Python脚本语言和TensorFlow库在深度学习环境中有效计算Hessianmatrices的实际方面。
translated by 谷歌翻译
即插即用(PnP)是一种非凸面框架,它将现代化的先驱(如BM3D或基于深度学习的降噪器)集成到ADMM或其他近端算法中。 PnP的一个优点是,当没有足够的数据进行端到端训练时,可以使用预训练的加速器。尽管最近已经广泛研究了PNP并取得了很大的经验成功,但理论分析甚至解决了最基本的收敛问题。在本文中,我们理论上建立了PNP-FBS和PnP-ADMM的收敛,在一定的Lipschitz条件下,在降噪器上不使用递减步长。然后我们提出真实的光谱正态化,这是一种训练基于深度学习的降噪器的技术,以满足所提出的Lipschitz条件。最后,我们提出验证该理论的实验结果。
translated by 谷歌翻译
差异隐私关注预测质量,同时测量对信息包含在数据中的个人的隐私影响。我们考虑与引起结构化稀疏性的规则制定者的差异私人风险最小化问题。已知这些正则化器是凸的,但它们通常是不可微分的。我们分析了标准的不同私有算法,例如输出扰动,Frank-Wolfe和目标扰动。输出扰动是一种差异私有算法,众所周知,它可以很好地降低强凸的风险。以前的工作已经导出了与维度无关的超额风险界限。在本文中,我们假设一类特定的凸但非光滑正则化器,它们导致广义线性模型的结构化稀疏性和损失函数。我们还考虑差异私有Frank-Wolfeal算法来优化风险最小化问题的双重性。我们得出这两种算法的过度风险界限。两个边界都取决于双范数的单位球的高斯宽度。我们还表明,风险最小化问题的客观扰动等同于双优化问题的输出扰动。这是在差异隐私的背景下分析风险最小化问题的双重优化问题的第一部作品。
translated by 谷歌翻译
我们使用多个移动代理来研究分类问题,这些移动代理能够收集(部分)与未知环境相关的姿势依赖性观察。目标是在有限的时间范围内对图像(例如,大区域的地图)进行分类。我们提出了一个关于代理如何形成本地信念,采取局部行动,从原始部分观察中提取相关特征和规范的网络架构。允许代理商与其邻近的代理商交换信息,并运行分散的共识协议来更新他们自己的信念。它显示了如何利用加强学习技术来实现分类问题的分散实施。我们对MNIST手写digitdataset的实验结果证明了我们提出的框架的有效性。
translated by 谷歌翻译
我们为类别特定的CAD模型提出了一种新颖的基于线的参数化。所提出的参数化使用基于字典的RANSAC方法将所考虑的3D类别特定的CAD模型对象相关联,该方法使用视觉点作为先验,并且在场景的相应强度图像中检测到边缘。关联问题作为经典的几何问题而不是数据集驱动,因此节省了注释数据集中为不同类别对象训练关键点网络的时间和劳动。除了不需要数据集准备之外,该方法还可以完成整个过程,因为此方法仅处理图像一次,因此无需为所有图像中的图像中的每个对象调用网络。 3D-2D边缘关联模块后面是线的截面算法用于恢复对象姿势。该公式优化了物体的形状和姿态,从而有助于更准确地恢复物体3D结构。最后,使用因子图制剂与相机测距法一起构造SLAM问题。
translated by 谷歌翻译