策略强化学习(RL)算法具有高样本复杂度,而非策略算法难以调整。合并这两者有利于开发有效的算法,这些算法可以在不同的环境中进行推广。然而,在实践中找到适当的高参数来控制这种权衡是具有挑战性的。本文开发了一个名为P3O的简单算法,它将关闭策略更新与策略更新交错.P3O使用行为策略和目标策略之间的有效样本大小来控制它们彼此之间的距离,并且不会引入任何额外的超参数。 Atari-2600和MuJoCo基准测试套件的大量实验表明,这种简单的技术可以非常有效地降低最先进算法的样本复杂性。
translated by 谷歌翻译
Transformer架构在计算效率方面优于基于RNN的模型。最近,GPT和BERT使用大型scalecorpora上的预训练语言模型证明了变形金刚模型在各种NLP任务上的功效。令人惊讶的是,这些Transformer架构本身并不是语言模型本身。 Transformer中的自我关注和位置编码都无法有效地整合对语言建模至关重要的单词级顺序语言。在本文中,我们将探索用于语言模型的有效Transformer体系结构,包括添加额外的LSTM层以更好地捕获顺序上下文,同时仍保持计算效率。我们建议使用CoordinateArchitecture Search(CAS)通过迭代修改模型来找到有效的架构。 PTB,WikiText-2和WikiText-103的实验结果表明CAS在所有问题上实现了20.42和34.11之间的困惑,即与现有技术的LSTM相比平均提高了12.0的困难单位。
translated by 谷歌翻译
Machine learning (ML) techniques are enjoying rapidly increasing adoption. However, designing and implementing the systems that support ML models in real-world deployments remains a significant obstacle, in large part due to the radically different development and deployment profile of modern ML methods, and the range of practical concerns that come with broader adoption. We propose to foster a new systems machine learning research community at the intersection of the traditional systems and ML communities, focused on topics such as hardware systems for ML, software systems for ML, and ML optimized for metrics beyond predictive accuracy. To do this, we describe a new conference, SysML, that explicitly targets research at the intersection of systems and machine learning with a program committee split evenly between experts in systems and ML, and an explicit focus on topics at the intersection of the two.
translated by 谷歌翻译
Deep embeddings answer one simple question: How similar are two images?Learning these embeddings is the bedrock of verification, zero-shot learning,and visual search. The most prominent approaches optimize a deep convolutionalnetwork with a suitable loss function, such as contrastive loss or tripletloss. While a rich line of work focuses solely on the loss functions, we showin this paper that selecting training examples plays an equally important role.We propose distance weighted sampling, which selects more informative andstable examples than traditional approaches. In addition, we show that a simplemargin based loss is sufficient to outperform all other loss functions. Weevaluate our approach on the Stanford Online Products, CAR196, and theCUB200-2011 datasets for image retrieval and clustering, and on the LFW datasetfor face verification. Our method achieves state-of-the-art performance on allof them.
translated by 谷歌翻译
我们研究了为\ emph {sets}定义的机器学习任务的模型设计问题。与在固定维向量上操作的传统方法相比,我们考虑在不同于排列的集合上定义的目标函数。这些问题很普遍,包括对人口统计数据的估计,以及堤坝的压力计数据中的异常检测\引用{Jung15Exploration},tocosmology \ cite {Ntampaka16Dynamical,Ravanbakhsh16ICML1}。我们的主要定理描述了置换不变函数,并提供了任何置换不变目标函数必须属于的族函数。这个函数族具有一种特殊的结构,使我们能够设计出可以在集合上运行且可以在各种上部署的陡峭网络体系结构。场景包括无监督和有监督的学习任务。我们还得出了深部模型中置换等变性的充分必要条件。我们证明了我们的方法在人口统计估计,点云分类,集合扩展和异常检测方面的适用性。
translated by 谷歌翻译
我们提出了一种解决同时检测和分割问题的新方法。使用分层结构,我们使用一个有效且准确的过程,利用Locacy Sensitive Hashing利用层次结构特征信息。我们建立在最近的工作基础上,利用卷积神经网络来检测图像中的边界框,然后在散列后使用最适合每个边界框的顶级相似的分层区域,我们采用这种方法进行iSegmentation。然后,我们通过自动层次结构修剪来优化我们的最终分割结果。 iSegmentation为Hypercolumns引入了免费替代品。我们对PASCAL VOC2012分割数据集进行了大量实验,表明iSegmentation提供了具有竞争力的最先进的对象分割。
translated by 谷歌翻译
下一代内核方法(KMNG)引入了一个框架,在小批量设置中使用kernelapproximates,使用SGD Optimizer作为深度学习的替代方案。 McKernel是KMNG ML大规模的C ++库。它包含FastFood算法的CPU优化实现,允许在对数线性时间内计算近似内核扩展。该算法需要计算Walsh Hadamard变换(WHT)矩阵的乘积。 Acache友好的SIMD Fast Walsh Hadamard变换(FWHT)已经开发出来,其速度快,并且优于当前最先进的方法。 McKernel允许获得非线性分类组合快速食品和线性分类器。
translated by 谷歌翻译
在针对非常大的问题进行风险最小化和凸出游戏时,在线学习算法具有令人印象深刻的收敛性。然而,它们在设计上具有内在的顺序性,这使它们无法利用现代多核架构。在本文中,我们证明了延迟更新的在线学习收敛良好,从而促进了并行在线学习。
translated by 谷歌翻译
We review machine learning methods employing positive definite kernels. Thesemethods formulate learning and estimation problems in a reproducing kernelHilbert space (RKHS) of functions defined on the data domain, expanded in termsof a kernel. Working in linear spaces of function has the benefit offacilitating the construction and analysis of learning algorithms while at thesame time allowing large classes of functions. The latter include nonlinearfunctions as well as functions defined on nonvectorial data. We cover a widerange of methods, ranging from binary classifiers to sophisticated methods forestimation with structured data.
translated by 谷歌翻译
在这项研究中,我们提出了仿射变分自动编码器(AVAE),变体自动编码器(VAE)的变量,旨在通过避免VAE无法推广到仿射扰动形式的分布变化来提高鲁棒性。通过优化仿射变换以最大化ELBO,所提出的AVAE将输入转换为训练分布而不需要增加模型复杂度以模拟仿射变换的完整分布。此外,我们引入了一个培训程序,通过学习训练分布的子集来创建有效的模型,并使用AVAE来改善分布式移位证明时间的泛化和鲁棒性。对仿射扰动的实验表明,所提出的AVAE显着改善了仿射扰动形式的分布均匀性的推广和鲁棒性,而不增加模型复杂性。
translated by 谷歌翻译