在多机器人系统中,任务对单个机器人的适当分配是非常重要的组成部分。集中式基础架构的可用性可以保证任务的最佳分配。但是,在许多重要的情况下,例如搜索和救援,探索,灾难管理,战场等,以分散的方式将动态任务直接分配给机器人。机器人之间的有效交流在任何这样的分散环境中都起着至关重要的作用。现有的关于分布式多机器人任务分配(MRTA)的作品假设网络可用或使用幼稚的通信范例。相反,在大多数情况下,网络基础架构是不稳定的或不可用的,并且临时网络是唯一的度假胜地。在同步传输(ST)的无线通信协议(ST)的最新发展显示,比在临时网络(例如无线传感器网络(WSN)/物联网(IOT)应用程序中的传统异步传输协议(IOT)应用程序中比传统的基于异步传输的协议更有效。当前的工作是将ST用于MRTA的第一项工作。具体而言,我们提出了一种有效调整基于ST的多对多交互的算法,并将信息交换最小化以达成任务分配的共识。我们通过广泛的基于基于模拟的研究在不同的环境下进行了基于模拟的延迟和能源效率来展示拟议算法的功效。
translated by 谷歌翻译
Smart Sensing提供了一种更轻松,方便的数据驱动机制,用于在建筑环境中监视和控制。建筑环境中生成的数据对隐私敏感且有限。 Federated Learning是一个新兴的范式,可在多个参与者之间提供隐私的合作,以进行模型培训,而无需共享私人和有限的数据。参与者数据集中的嘈杂标签降低了表现,并增加了联合学习收敛的通信巡回赛数量。如此大的沟通回合需要更多的时间和精力来训练模型。在本文中,我们提出了一种联合学习方法,以抑制每个参与者数据集中嘈杂标签的不平等分布。该方法首先估计每个参与者数据集的噪声比,并使用服务器数据集将噪声比归一化。所提出的方法可以处理服务器数据集中的偏差,并最大程度地减少其对参与者数据集的影响。接下来,我们使用每个参与者的归一化噪声比和影响来计算参与者的最佳加权贡献。我们进一步得出表达式,以估计提出方法收敛所需的通信回合数。最后,实验结果证明了拟议方法对现有技术的有效性,从交流回合和在建筑环境中实现了性能。
translated by 谷歌翻译
随着人们的生活水平的增强和通信技术的快速增长,住宅环境变得聪明且连接,从而大大增加了整体能源消耗。由于家用电器是主要的能源消费者,因此他们的认可对于避免无人看管的用途至关重要,从而节省了能源并使智能环境更可持续。传统上,通过从客户(消费者)收集通过智能插头记录的电力消耗数据,在中央服务器(服务提供商)中培训设备识别模型,从而导致隐私漏洞。除此之外,当设备连接到非指定的智能插头时,数据易受嘈杂的标签。在共同解决这些问题的同时,我们提出了一种新型的联合学习方法来识别设备识别,即Fedar+,即使使用错误的培训数据,也可以以隐私的方式跨客户进行分散的模型培训。 Fedar+引入了一种自适应噪声处理方法,本质上是包含权重和标签分布的关节损耗函数,以增强设备识别模型的能力,以抵制嘈杂标签。通过将智能插头部署在公寓大楼中,我们收集了一个标记的数据集,该数据集以及两个现有数据集可用于评估Fedar+的性能。实验结果表明,我们的方法可以有效地处理高达$ 30 \%$的嘈杂标签,同时以较大的准确性优于先前的解决方案。
translated by 谷歌翻译
垃圾邮件是困扰网络规模的数字平台的一个严重问题,可促进用户内容创建和分发。它损害了平台的完整性,推荐和搜索等服务的性能以及整体业务。垃圾邮件发送者从事各种与非垃圾邮件发送者不同的虐待和回避行为。用户的复杂行为可以通过富含节点和边缘属性的异质图很好地表示。学会在网络尺度平台的图表中识别垃圾邮件发送者,因为其结构上的复杂性和大小。在本文中,我们提出了塞纳河(使用相互作用网络检测垃圾邮件检测),这是一个新的图形框架上的垃圾邮件检测模型。我们的图形同时捕获了丰富的用户的详细信息和行为,并可以在十亿个尺度的图表上学习。我们的模型考虑了邻域以及边缘类型和属性,从而使其可以捕获广泛的垃圾邮件发送者。塞纳河(Seine)经过数千万节点和数十亿个边缘的真实数据集的培训,获得了80%的召回率,并以1%的假阳性率获得了80%的召回率。塞纳河(Seine)在公共数据集上的最先进技术实现了可比的性能,同时务实可用于大规模生产系统。
translated by 谷歌翻译
近年来,Experts(MOE)的混合物已成为一种有前途的深度学习技术,可以将模型能力扩展为万亿多个参数,同时通过稀疏计算降低计算成本。虽然MoE开设了一个非常大的模型的新领域,但由于MOE的动态性质与系统的静态平行性/管道层之间的不匹配,因此其数以千计的GPU的实现受到限制。我们提出了Tutel,这是一种具有动态自适应并行性和管道的高度可扩展的堆栈设计和实现。 TUTEL在运行时提供自适应并行性切换和自适应管道,分别达到1.74倍和2.00倍的单MOE层加速度。我们还提出了一种用于MOE通信速度的新颖的二维层次结构算法,该算法的表现超过了2,048 GPU的先前最先前的最新时间。 Tutel汇总了所有技术,最终在16 GPU和2,048 GPU上分别提供了4.96倍和5.75倍的加速度,分别通过Fairseq:Meta的Facebook AI AI研究序列到序列工具Kit(Tutel(Tutel)(Tutel)(Tutel)(现在由Fairseq部分采用)。 Tutel源代码可在公共场所获得:https://github.com/microsoft/tutel。我们的评估表明,Tutel有效,有效地运行了一个基于现实的MOE模型,名为Swinv2-Moe,建立在Swin Transformer V2上,这是一种最先进的计算机视觉体系结构。在效率方面,Tutel加速了Swinv2-MoE,在FairSeq的训练和推理中分别达到1.55倍和2.11倍的速度。关于有效性,SWINV2-MOE模型在预训练和下游计算机视觉任务(例如可可对象检测)方面都比对应的密度密度模型都达到了卓越的精度,这表明Tutel准备对端到端现实世界模型训练的准备就绪和推理。 Swinv2-Moe在https://github.com/microsoft/swin-transformer中开放。
translated by 谷歌翻译
我们概述了新兴机会和挑战,以提高AI对科学发现的效用。AI为行业的独特目标与AI科学的目标创造了识别模式中的识别模式与来自数据的发现模式之间的紧张。如果我们解决了与域驱动的科学模型和数据驱动的AI学习机之间的“弥补差距”相关的根本挑战,那么我们预计这些AI模型可以改变假说发电,科学发现和科学过程本身。
translated by 谷歌翻译
格子形成了从自动语音识别系统产生的多个假设的紧凑型表示,并且已被证明可以提高与使用一个最佳假设的口语理解和语音转换等下游任务的性能。在这项工作中,我们展望了莱迪思提示在二次通过中抢救N-Best列表的有效性。我们用经常性网络编码格子,并培训注意Encoder-解码器模型,用于N-Best Rescoring。重新调用模型的重点模型在首先达到4-5%的相对字错误率和6-8%,注意到晶格和声学特征。我们展示了救援模型,注意了格格特优于模型,以注意力为N-Best假设。我们还研究了不同的方法来纳入格子编码器中的晶格重量,并展示他们对N-Best Rescoring的重要性。
translated by 谷歌翻译
基于深度神经网络(DNN)的大多数CT图像去噪文献表明,DNN在诸如RMSE,PSNR和SSSIM之类的度量方面优于传统的迭代方法。在许多情况下,使用相同的度量,低剂量输入的DNN结果也显示为与它们的高剂量对应物相当。然而,这些指标不透露如果DNN结果保留细微病变的可见性,或者如果它们改变CT图像属性,例如噪声纹理。因此,在这项工作中,我们寻求研究DNN的图像质量来自整体观点的低剂量CT图像去噪。首先,我们构建一个高级DNN去噪架构的库。该库由DNCNN,U-Net,Red-Net,GaN等的去噪架构组成。接下来,每个网络都被建模,以及培训,使其在PSNR和SSIM方面产生最佳性能。因此,相应地调整了数据输入(例如,培训补丁大小,重建内核)和数字优化输入(例如,小型匹配大小,学习率,丢失功能)。最后,由此培训的网络的输出进一步受到一系列CT台式测试度量,例如对比度的MTF,NPS和HU精度。这些指标用于对DNN输出的低对比度特征,噪声纹理及其CT号精度的分辨率进行更细微的研究,以更好地理解每个DNN算法对图像质量的这些基础属性的影响。
translated by 谷歌翻译
Bayesian optimization is an effective methodology for the global optimization of functions with expensive evaluations. It relies on querying a distribution over functions defined by a relatively cheap surrogate model. An accurate model for this distribution over functions is critical to the effectiveness of the approach, and is typically fit using Gaussian processes (GPs). However, since GPs scale cubically with the number of observations, it has been challenging to handle objectives whose optimization requires many evaluations, and as such, massively parallelizing the optimization.In this work, we explore the use of neural networks as an alternative to GPs to model distributions over functions. We show that performing adaptive basis function regression with a neural network as the parametric form performs competitively with state-of-the-art GP-based approaches, but scales linearly with the number of data rather than cubically. This allows us to achieve a previously intractable degree of parallelism, which we apply to large scale hyperparameter optimization, rapidly finding competitive models on benchmark object recognition tasks using convolutional networks, and image caption generation using neural language models.
translated by 谷歌翻译