神经算法推理的基石是解决算法任务的能力,尤其是以一种概括分布的方式。尽管近年来,该领域的方法学改进激增,但它们主要集中在建立专家模型上。专业模型能够学习仅执行一种算法或具有相同控制流骨干的算法的集合。相反,在这里,我们专注于构建通才神经算法学习者 - 单个图形神经网络处理器,能够学习执行各种算法,例如分类,搜索,动态编程,路径触发和几何学。我们利用CLRS基准来凭经验表明,就像在感知领域的最新成功一样,通才算法学习者可以通过“合并”知识来构建。也就是说,只要我们能够在单任务制度中学习很好地执行它们,就可以以多任务的方式有效地学习算法。在此激励的基础上,我们为CLR提供了一系列改进,对CLR的输入表示,培训制度和处理器体系结构,将平均单任务性能提高了20%以上。然后,我们进行了多任务学习者的彻底消融,以利用这些改进。我们的结果表明,一位通才学习者有效地结合了专家模型所捕获的知识。
translated by 谷歌翻译
我们提出了一种基于标准化流动的机器学习方法,用于建模原子固体。我们的模型将一个分析的易诊断分布转换为目标固体,而无需进行地面真实样品进行培训。我们向赫尔莫霍尔茨自由能量估算报告为单立方和六角形冰,如解象水,以及截断的leennard-jones系统,并发现它们与文学价值观的良好协议以及既定基线方法的估计。我们进一步研究了结构性,并表明模型样品几乎与分子动力学所获得的模型难以区分。因此,我们的结果表明,标准化流动可以提供高质量的样品和固体的自由能估计,而无需多阶段或用于对晶体几何体施加的限制。
translated by 谷歌翻译
To date, no "information-theoretic" frameworks for reasoning about generalization error have been shown to establish minimax rates for gradient descent in the setting of stochastic convex optimization. In this work, we consider the prospect of establishing such rates via several existing information-theoretic frameworks: input-output mutual information bounds, conditional mutual information bounds and variants, PAC-Bayes bounds, and recent conditional variants thereof. We prove that none of these bounds are able to establish minimax rates. We then consider a common tactic employed in studying gradient methods, whereby the final iterate is corrupted by Gaussian noise, producing a noisy "surrogate" algorithm. We prove that minimax rates cannot be established via the analysis of such surrogates. Our results suggest that new ideas are required to analyze gradient descent using information-theoretic techniques.
translated by 谷歌翻译
By transferring knowledge from large, diverse, task-agnostic datasets, modern machine learning models can solve specific downstream tasks either zero-shot or with small task-specific datasets to a high level of performance. While this capability has been demonstrated in other fields such as computer vision, natural language processing or speech recognition, it remains to be shown in robotics, where the generalization capabilities of the models are particularly critical due to the difficulty of collecting real-world robotic data. We argue that one of the keys to the success of such general robotic models lies with open-ended task-agnostic training, combined with high-capacity architectures that can absorb all of the diverse, robotic data. In this paper, we present a model class, dubbed Robotics Transformer, that exhibits promising scalable model properties. We verify our conclusions in a study of different model classes and their ability to generalize as a function of the data size, model size, and data diversity based on a large-scale data collection on real robots performing real-world tasks. The project's website and videos can be found at robotics-transformer.github.io
translated by 谷歌翻译
在Xu和Raginksy [1]引入的框架的基础上,我们研究了基于模型的贝叶斯强化学习问题的最佳实现性能。为此,我们将最小贝叶斯遗憾(MBR)定义为可通过从收集的数据学习或了解环境及其动态来获得的最大预期累积奖励之间的差异。我们将此定义专门用于强化学习问题,以模仿马尔可夫决策过程(MDPS),其内核参数是代理不明的,并且其不确定性由先前的分布表示。提出了一种推导MBR上上限的方法,并根据相对熵和Wasserstein距离进行特定边界。然后,我们专注于两种特定的MDP案例,即多臂强盗问题(MAB)和与部分反馈问题的在线优化。对于后一个问题,我们表明我们的界限可以从Russo和Van Roy [2]的当前信息理论界限以下恢复。
translated by 谷歌翻译
检查裂缝是正确监视和维护建筑物的重要过程。但是,手动裂缝检查是耗时,不一致且危险的(例如,在高建筑物中)。由于开源AI技术的开发,可用的无人机(UAV)的增加以及智能手机摄像机的可用性,已经有可能自动化建筑物裂纹检查过程。这项研究介绍了使用最先进的分段算法来开发一种易于使用,免费和开源的自动化建筑物外部裂纹检查软件(ABECIS),用于建筑和设施经理定量和定性报告。使用在现实世界中的无人机和智能手机摄像机和受控实验室环境中收集的图像对Abecis进行了测试。从算法的原始输出来看,用于测试实验的工会上的中值相交​​是(1)0.686,用于使用商业无人机在受控的实验室环境中使用商业无人机在室内裂纹检测实验,(2)0.186,用于使用室内裂纹检测在施工现场检测的室内裂纹。智能手机和(3)0.958使用商业无人机在大学校园进行户外裂纹检测。当人类操作员选择性地消除误报时,这些IOU结果可以显着提高到0.8以上。通常,Abecis最适合室外无人机图像,将算法预测与人类验证/干预相结合提供非常准确的裂纹检测结果。该软件可公开可用,可以下载以供开箱即用:https://github.com/smart-nyuad/abecis
translated by 谷歌翻译
差异隐私(DP)提供了正式的隐私保证,以防止对手可以访问机器学习模型,从而从提取有关单个培训点的信息。最受欢迎的DP训练方法是差异私有随机梯度下降(DP-SGD),它通过在训练过程中注入噪声来实现这种保护。然而,以前的工作发现,DP-SGD通常会导致标准图像分类基准的性能显着降解。此外,一些作者假设DP-SGD在大型模型上固有地表现不佳,因为保留隐私所需的噪声规范与模型维度成正比。相反,我们证明了过度参数化模型上的DP-SGD可以比以前想象的要好得多。将仔细的超参数调整与简单技术结合起来,以确保信号传播并提高收敛速率,我们获得了新的SOTA,而没有额外数据的CIFAR-10,在81.4%的81.4%下(8,10^{ - 5}) - 使用40 -layer wide-Resnet,比以前的SOTA提高了71.7%。当对预训练的NFNET-F3进行微调时,我们在ImageNet(0.5,8*10^{ - 7})下达到了83.8%的TOP-1精度。此外,我们还在(8,8 \ cdot 10^{ - 7})下达到了86.7%的TOP-1精度,DP仅比当前的非私人SOTA仅4.3%。我们认为,我们的结果是缩小私人图像分类和非私有图像分类之间准确性差距的重要一步。
translated by 谷歌翻译
大型语言模型可以编码有关世界的大量语义知识。这种知识对于旨在采取自然语言表达的高级,时间扩展的指示的机器人可能非常有用。但是,语言模型的一个重大弱点是,它们缺乏现实世界的经验,这使得很难利用它们在给定的体现中进行决策。例如,要求语言模型描述如何清洁溢出物可能会导致合理的叙述,但是它可能不适用于需要在特定环境中执行此任务的特定代理商(例如机器人)。我们建议通过预处理的技能来提供现实世界的基础,这些技能用于限制模型以提出可行且在上下文上适当的自然语言动作。机器人可以充当语​​言模型的“手和眼睛”,而语言模型可以提供有关任务的高级语义知识。我们展示了如何将低级技能与大语言模型结合在一起,以便语言模型提供有关执行复杂和时间扩展说明的过程的高级知识,而与这些技能相关的价值功能则提供了连接必要的基础了解特定的物理环境。我们在许多现实世界的机器人任务上评估了我们的方法,我们表明了对现实世界接地的需求,并且这种方法能够在移动操纵器上完成长远,抽象的自然语言指令。该项目的网站和视频可以在https://say-can.github.io/上找到。
translated by 谷歌翻译
鉴于对机器学习模型的访问,可以进行对手重建模型的培训数据?这项工作从一个强大的知情对手的镜头研究了这个问题,他们知道除了一个之外的所有培训数据点。通过实例化混凝土攻击,我们表明重建此严格威胁模型中的剩余数据点是可行的。对于凸模型(例如Logistic回归),重建攻击很简单,可以以封闭形式导出。对于更常规的模型(例如神经网络),我们提出了一种基于训练的攻击策略,该攻击策略接收作为输入攻击的模型的权重,并产生目标数据点。我们展示了我们对MNIST和CIFAR-10训练的图像分类器的攻击的有效性,并系统地研究了标准机器学习管道的哪些因素影响重建成功。最后,我们从理论上调查了有多差异的隐私足以通过知情对手减轻重建攻击。我们的工作提供了有效的重建攻击,模型开发人员可以用于评估超出以前作品中考虑的一般设置中的个别点的记忆(例如,生成语言模型或访问培训梯度);它表明,标准模型具有存储足够信息的能力,以实现培训数据点的高保真重建;它表明,差异隐私可以成功减轻该参数制度中的攻击,其中公用事业劣化最小。
translated by 谷歌翻译
我们研究了从强大和差异私有优化产生的学习困难。我们首先使用差异隐私研究梯度下降基础的对抗基础训练的融合,以线性可分离的数据为例作为说明性示例。我们比较私人和非私人环境中对抗性和名义风险之间的差距,表明私人优化依赖的数据维度依赖性术语化化各种依赖于学习鲁棒模型的困难。在此之后,我们讨论了普遍培训和差异隐私伤害优化的哪些部分,确定了差异隐私中的对抗扰动和剪切规范的大小都会增加损失景观的曲率,这意味着较差的普遍性表现。
translated by 谷歌翻译