一些现实世界决策问题需要立即对多个步骤进行概率预测。然而,概率预测方法可能无法捕获在长时间视野中存在的基础时间序列中的相关性,因为累积累积。一个这样的应用是在网格环境中不确定性下的资源调度,这需要预测电力需求,这是自然嘈杂的,但通常是循环的。在本文中,我们介绍了条件近似标准化流量(CANF),以便在长时间视野中存在相关性时进行概率的多步时间序列预测。我们首先展示了我们对估计玩具分布密度的方法的功效,发现CANF与高斯混合模型相比通过三分之一提高了KL发散,同时仍可用于显式调理。然后,我们使用公开的家用电力消耗数据集来展示CANF在联合概率多步预测上的有效性。经验结果表明,条件近似标准化流动在多步骤预测精度方面优于其他方法,并导致高达10倍的调度决策。我们的实现可在https://github.com/sisl/jointdemandforecast中获得。
translated by 谷歌翻译
初步任务设计需要高效且准确地近似于低推力的聚合轨迹,这可能通常是三维的并且涉及多次转。本文开发了一种用于分析近似的使用立方样条函数的新成形方法,其显示了最优性和计算效率的优点。在假设预先指定立方样条函数的边界条件和段数,全部满足边界状态和转移时间的约束约束。然后根据是否具有自由优化参数,配制两种特定形状。没有自由参数的形状提供了有效且稳健的估计,而另一个则允许随后的优化来满足诸如推力幅度上的约束的额外约束。所提出的方法与粒子群优化算法结合的应用通过两个典型的行星际的间行序列任务讨论,即,从地球到小行星狄俄尼索斯的倾斜的多转轨迹和样本返回的多串轨迹。仿真示例表明,在为全球搜索的良好估计和为随后的轨迹优化产生合适的初始猜测方面,所提出的方法优于现有方法。
translated by 谷歌翻译
边界盒注释表单是可视对象本地化任务最常用的方法。然而,边界盒注释依赖于大量的精确注释的边界盒,这是昂贵的,艰苦的,因此在实际情况下是不可能的,对于某些应用而言,关心尺寸的一些应用甚至是多余的。因此,我们通过将每个人作为粗略点(COARSOPPOINT)向每个人提供注释来提出一种基于点的基于点的框架,该框架可以是对象范围内的任何点,而不是精确的边界框。然后将该人的位置预测为图像中的2D坐标。大大简化了数据注释管道。然而,COARSOUNTPOINT注释不可避免地导致标签可靠性降低(标签不确定性)和训练期间的网络混淆。因此,我们提出了一种点自我细化方法,它以自重节奏的方式迭代地更新点注释。拟议的细化系统减轻了标签不确定性,逐步提高了本地化绩效。实验表明,我们的方法可实现对象本地化性能,同时保存注释成本高达80 $ \%$。代码括在补充材料中。
translated by 谷歌翻译
我们提出了一种新颖的框架,将3D运动重定定义任务从受控环境带到野外的场景。特别地,我们的方法能够从2D单眼视频中的字符重新靶出到3D字符,而不使用任何运动捕获系统或3D重构过程。它旨在利用巨大的在线视频,用于无监督培训,不用的3D注释或运动身体配对信息。所提出的方法是基于两种新颖的规范化操作,结构规范化和观察规范化。我们的方法训练了Canonicalization操作和派生规范化,我们的方法学会将骨架序列分解为三个独立的语义子空间,即运动,结构和视角。解散的表示使从2D到3D的运动重新定位,具有高精度。我们的方法在运动转移基准上实现了卓越的性能,具有大的身体变化和具有挑战性的动作。值得注意的是,规范化的骨架序列可以用作人类运动的解除戒备和可解释的表示,这些人的运动会受益于行动分析和运动检索。
translated by 谷歌翻译
数据增强是自然语言处理(NLP)模型的鲁棒性评估的重要组成部分,以及增强他们培训的数据的多样性。在本文中,我们呈现NL-Cogmenter,这是一种新的参与式Python的自然语言增强框架,它支持创建两个转换(对数据的修改)和过滤器(根据特定功能的数据拆分)。我们描述了框架和初始的117个变换和23个过滤器,用于各种自然语言任务。我们通过使用其几个转换来分析流行自然语言模型的鲁棒性来证明NL-Upmenter的功效。基础架构,Datacards和稳健性分析结果在NL-Augmenter存储库上公开可用(\ url {https://github.com/gem-benchmark/nl-augmenter})。
translated by 谷歌翻译
混合是深度神经网络的流行数据依赖性增强技术,其包含两个子任务,混合生成和分类。社区通常将混合限制在监督学习(SL)中,并且生成子任务的目的是固定到采样的对,而不是考虑整个数据歧管。为了克服这些限制,我们系统地研究了两个子任务的目标,并为SL和自我监督的学习(SSL)方案,命名为Samix的两个子任务和提出情景 - 激动化混合。具体而言,我们假设并验证混合生成的核心目标,因为优化来自其他类别的全球歧视的两个类之间的局部平滑度。基于这一发现,提出了$ \ eta $ -Balanced混合丢失,以进行两个子任务的互补培训。同时,生成子任务被参数化为可优化的模块,混音器,其利用注意机制来生成混合样本而无需标记依赖性。对SL和SSL任务的广泛实验表明SAMIX始终如一地优于大边距。
translated by 谷歌翻译
交通信号控制对于有效使用运输基础设施是至关重要的。车辆交通的快速增长和交通模式的变化使交通信号控制越来越具有挑战性。基于加强学习(RL)的算法已经证明了它们在处理交通信号控制方面的潜力。然而,大多数现有解决方案需要大量的培训数据,这对于许多真实的情景来说是不可接受的。本文提出了一种用于交通信号控制的新型模型的元增强学习框架(型号)。在Modelight中,用于道路交叉路口模型的集合和基于优化的元学习方法,用于提高基于RL的流量光控制方法的数据效率。现实世界数据集的实验表明,制造智慧可以倾向于最先进的交通光控制算法,同时大大减少了与现实世界环境的所需交互的数量。
translated by 谷歌翻译
联合学习(FL)是一种隐私保留的分布式机器学习技术,该技术培训模型而不直接访问设备上生成的原始数据。由于设备可以是资源约束,因此可以通过将计算工作负载从设备传送到边缘服务器来改善流动来改善流动。然而,由于移动性,参与FL的设备可以在训练期间离开网络,并且需要连接到不同的边缘服务器。这是具有挑战性的,因为需要迁移边缘服务器的卸载计算。符合此断言,我们提出了Fedfly,即据我们所知,当设备在FL训练期间在边缘服务器之间移动时,将深度神经网络(DNN)迁移的第一项工作。我们对CiFar-10数据集的实证结果,具有平衡和不平衡的数据分布,支持我们的索赔,即当设备在50%的培训完成后,Fedfly可以将培训时间降低到33%,达到55%当与FL中的最先进的卸载方法相比,90%的培训时。 Fedfly在2秒的开销中可以忽略不计,并且不会妥协准确。最后,我们突出了一些开放的研究问题进行进一步调查。 fedfly可以从https://github.com/qub-blesson/fedfly下载
translated by 谷歌翻译
本文介绍了WenetsPeech,一个由10000多小时的高质量标记语音组成的多域普通话语料库,2400多小时弱贴言论,大约100万小时的语音,总共22400多小时。我们收集来自YouTube和Podcast的数据,涵盖各种演讲样式,场景,域名,主题和嘈杂的条件。引入了基于光学字符识别(OCR)的方法,以在其对应的视频字幕上为YouTube数据生成音频/文本分段候选,而高质量的ASR转录系统用于为播客数据生成音频/文本对候选。然后我们提出了一种新的端到端标签错误检测方法,可以进一步验证和过滤候选者。我们还提供三个手动标记的高质量测试集,以及WenetsPeech进行评估 - 开发用于训练中的交叉验证目的,从互联网收集的匹配测试,并从真实会议中记录的测试\ _MEETING,以获得更具挑战性的不匹配测试。使用有线exeeEX培训的基线系统,用于三个流行的语音识别工具包,即Kaldi,Espnet和Wenet,以及三个测试集的识别结果也被提供为基准。据我们所知,WenetsPeech是目前最大的开放式普通话语音语料库,其中有利于生产级语音识别的研究。
translated by 谷歌翻译
在互联网上应用联合学习(FL)是由他们产生的大量数据卷产生和越来越多的数据隐私问题所必需的。但是,有三种挑战需要解决,以使FL高效:(i)在具有有限的计算能力的设备上执行(ii)由于设备的计算异质性而对陷阱器进行丢包,并且(iii)适应变化的网络带宽。本文提出了一个自适应卸载FL框架,以减轻前述挑战。 FEDADATT通过利用深神经网络(DNN)的层卸载到服务器来加速在计算受限设备中的本地培训。此外,FEDADATT采用基于基于学习的优化和聚类,以便自适应地识别用于服务器上的每个单独设备的DNN的哪个层,以解决计算异质性和改变网络带宽的挑战。实验研究在包括五个物理设备的基于实验室的试验台上进行。通过将DNN从设备卸载到服务器FEDADATT与经典FL相比将典型的物联网设备的训练时间减少一半。极端陷阱和整体训练时间的培训时间可以减少高达57%。此外,随着网络带宽的变化,与经典FL相比,FEDADATT将在不牺牲精度的情况下将培训时间降低至多40%。 FEDADATT可以从https://github.com/qub-blesson/fedadapt下载。
translated by 谷歌翻译