In optimization-based approaches to inverse problems and to statistical estimation, it is common to augment the objective with a regularizer to address challenges associated with ill-posedness. The choice of a suitable regularizer is typically driven by prior domain information and computational considerations. Convex regularizers are attractive as they are endowed with certificates of optimality as well as the toolkit of convex analysis, but exhibit a computational scaling that makes them ill-suited beyond moderate-sized problem instances. On the other hand, nonconvex regularizers can often be deployed at scale, but do not enjoy the certification properties associated with convex regularizers. In this paper, we seek a systematic understanding of the power and the limitations of convex regularization by investigating the following questions: Given a distribution, what are the optimal regularizers, both convex and nonconvex, for data drawn from the distribution? What properties of a data source govern whether it is amenable to convex regularization? We address these questions for the class of continuous and positively homogenous regularizers for which convex and nonconvex regularizers correspond, respectively, to convex bodies and star bodies. By leveraging dual Brunn-Minkowski theory, we show that a radial function derived from a data distribution is the key quantity for identifying optimal regularizers and for assessing the amenability of a data source to convex regularization. Using tools such as $\Gamma$-convergence, we show that our results are robust in the sense that the optimal regularizers for a sample drawn from a distribution converge to their population counterparts as the sample size grows large. Finally, we give generalization guarantees that recover previous results for polyhedral regularizers (i.e., dictionary learning) and lead to new ones for semidefinite regularizers.
translated by 谷歌翻译
基于分数的分歧已被广泛用于机器学习和统计应用。尽管他们的经验成功,但在将它们用于多模式分布时仍观察到了失明问题。在这项工作中,我们讨论了失明问题,并提出了一个新的分歧家庭,可以减轻失明问题。在密度估计的背景下,我们说明了我们提出的差异,与传统方法相比,报告的性能提高了。
translated by 谷歌翻译
在现代机器学习研究中,概括到以前看不见的任务的能力几乎是一个关键的挑战。它也是未来“将军AI”的基石。任何部署在现实世界应用中的人为智能代理,都必须随时适应未知环境。研究人员通常依靠强化和模仿学习来通过试用和错误学习来在线适应新任务。但是,这对于需要许多时间段或大量子任务才能完成的复杂任务可能具有挑战性。这些“长范围”任务遭受了样本效率低下的损失,并且可能需要非常长的培训时间,然后代理人才能学习执行必要的长期计划。在这项工作中,我们介绍了案例,该案例试图通过使用自适应“不久的将来”子目标训练模仿学习代理来解决这些问题。这些子观念在每个步骤中使用构图算术在学习潜在的表示空间中进行重新计算。除了提高标准长期任务的学习效率外,这种方法还可以使对以前看不见的任务进行一次性的概括,只有在不同环境中为该任务进行单个参考轨迹。我们的实验表明,所提出的方法始终优于先前的最新成分模仿学习方法30%。
translated by 谷歌翻译
通过提供流动性,市场制造商在金融市场中发挥着关键作用。他们通常填写订单书籍,以购买和出售限额订单,以便为交易员提供替代价格水平来运营。本文精确地侧重于从基于代理人的角度研究这些市场制造商战略的研究。特别是,我们提出了加强学习(RL)在模拟股市中创建智能市场标志的应用。本研究分析了RL市场制造商代理在非竞争性(同时只有一个RL市场制造商学习)和竞争方案(同时学习的多个RL市场标记)以及如何调整其在SIM2REAL范围内的策略有很有趣的结果。此外,它涵盖了不同实验之间的政策转移的应用,描述了竞争环境对RL代理表现的影响。 RL和Deep RL技术被证明是有利可图的市场制造商方法,从而更好地了解他们在股票市场的行为。
translated by 谷歌翻译
获得每拍信息是对心心电图(ECG)分析的关键任务,因为许多下游诊断任务取决于基于ECG的测量。然而,这些测量成本高昂地生产,特别是在整个长时间变化的记录中。但是,对于ECG描绘的现有注释数据库很小,尺寸不足,并且在它们所代表的病理条件阵列中。本文揭示了两个主要贡献。首先,基于伪造数据生成算法,基于概率论构成基本段的“池”,从原始数据库裁剪,以及将其布置成相干合成迹线的一组规则。通过对生成的轨迹施加专家知识来控制条件的产生,这增加了培训模型的输入变异性。其次,已经开发了两种新的基于分段的损耗功能,该损耗函数已经尝试通过专注于减少的样品来强制执行精确的独立结构的预测和产生更近的分段边界。最佳表演模型获得了$ f_1 $-score为99.38 \%,删除误差为2.19美元17.73 $ ms和4.45美元的$ 4.45 \ pm为所有Wave的信托(分别)(分别是持续的),如P的平均值,QRS和T波为三个不同可自由的数据库。尽管测试数据库的异质特性,但在铅配置(Holter,12-ex),采样频率(250美元,500美元和2,000美元)和代表的病理物理学(例如,不同类型的心律失常(例如,不同类型的心律失常)方面,所以获得了优异的结果。 ,窦性心律具有结构性心脏病,暗示在其泛化能力,同时优于现有最先进的划分方法。
translated by 谷歌翻译
模型拼盘可以为实现概率模型创造重大挑战,这导致了一系列推理方法,直接占此问题。但是,是否需要这些更多涉及的方法将取决于模型是否真正遗漏,并且缺乏普遍适用的方法来回答这个问题。一组可以帮助的工具是健美的测试,在那里我们测试数据集是否可以通过固定分发生成。基于内核的测试已经开发出这个问题,由于它们的灵活性,强烈的理论担保和在各种情况下实现的易于实现,因此这些是流行的。在本文中,我们将这一阶段的工作延伸到更具挑战性的综合性良好问题,在那里,我们就是对某些参数家族中的任何分布感兴趣。这相当于测试是否为数据指定了参数模型。
translated by 谷歌翻译
本文介绍了视觉表示(GEOCLR)的地理化对比度学习,以有效地训练深度学习卷积神经网络(CNN)。该方法通过使用附近位置拍摄的图像生成相似的图像对来利用地理网络信息,并将这些图像与相距遥远的图像对进行对比。基本的假设是,在近距离内收集的图像更可能具有相似的视觉外观,在海底机器人成像应用中可以合理地满足图像,在这些应用中,图像足迹仅限于几米的边缘长度,并将其重叠以使其重叠沿着车辆的轨迹,而海底底物和栖息地的斑块大小要大得多。这种方法的一个关键优点是它是自我监督的,并且不需要任何人类的CNN培训投入。该方法在计算上是有效的,可以使用在大多数海洋现场试验中可以访问的计算资源在多天AUV任务中之间的潜水之间产生结果。我们将GEOCLR应用于数据集上的栖息地分类,该数据集由使用自动水下车辆(AUV)收集的〜86K图像组成。我们演示了GEOCLR产生的潜在表示如何有效地指导人类注释工作,而与使用相同的CNN和同一CNN和最先进的SIMCLR相比,半监督框架平均将分类精度提高了10.2%。等效的人类注释培训。
translated by 谷歌翻译
在19日期大流行期间,大伦敦政府机构的政策制定者,英国伦敦地区治理机构,依赖于迅速而准确的数据来源。有时很难获得整个城市的大量明确定义的异质活动组成,但是为了学习“忙碌”并因此做出安全的政策决定是必要的。在这个领域,我们项目的一个组成部分是利用现有的基础架构来估计公众的社会距离依从性。我们的方法可以通过现场交通摄像头饲料即可立即采样和伦敦街道上的活动和物理距离的背景化。我们介绍了一个检查和改进现有方法的框架,同时还描述了其在900多个实时提要上的主动部署。
translated by 谷歌翻译
近年来,最先进神经网络的参数的数量急剧增加。这种对大规模神经网络感兴趣的激增具有促使新的分布式培训策略的发展,从而实现了这种模型。一种这样的策略是模型平行分布式培训。不幸的是,模型 - 并行性遭受资源利用率差,导致资源浪费。在这项工作中,我们改进了最近的理想化模型 - 并行优化设置:本地学习。由于资源利用率差,我们在当地和全球学习之间介绍了一类中介战略,称为联锁反向化。这些策略保留了本地优化的许多计算效率优势,同时恢复全球优化实现的大部分任务性能。我们评估了我们对图像分类的策略和变压器语言模型,发现我们的策略一致地在任务绩效方面出现本地学习,并在培训效率方面进行全球学习。
translated by 谷歌翻译
Massive data corpora like WebText, Wikipedia, Conceptual Captions, WebImageText, and LAION have propelled recent dramatic progress in AI. Large neural models trained on such datasets produce impressive results and top many of today's benchmarks. A notable omission within this family of large-scale datasets is 3D data. Despite considerable interest and potential applications in 3D vision, datasets of high-fidelity 3D models continue to be mid-sized with limited diversity of object categories. Addressing this gap, we present Objaverse 1.0, a large dataset of objects with 800K+ (and growing) 3D models with descriptive captions, tags, and animations. Objaverse improves upon present day 3D repositories in terms of scale, number of categories, and in the visual diversity of instances within a category. We demonstrate the large potential of Objaverse via four diverse applications: training generative 3D models, improving tail category segmentation on the LVIS benchmark, training open-vocabulary object-navigation models for Embodied AI, and creating a new benchmark for robustness analysis of vision models. Objaverse can open new directions for research and enable new applications across the field of AI.
translated by 谷歌翻译