机器学习正在从艺术和科学转变为可供每个开发人员使用的技术。在不久的将来,每个平台上的每个应用程序都将包含训练有素的模型,以编码开发人员无法创作的基于数据的决策。这提出了一个重要的工程挑战,因为目前数据科学和建模在很大程度上与标准软件开发过程脱钩。这种分离使得在应用程序内部的机器学习能力不必要地变得困难,并且进一步阻碍了开发人员将MLin置于首位。在本文中,我们介绍了ML .NET,这是一个在过去十年中在Microsoft开发的框架,用于应对在大型软件应用程序中轻松发布机器学习模型的挑战。我们提出了它的架构,并阐明了形成它的应用程序需求。具体而言,我们引入了DataView,它是ML .NET的核心数据抽象,它可以有效地,一致地捕获完整的预测管道,并在训练和推理生命周期中进行。我们结束了论文,对ML .NET进行了令人惊讶的有利的性能研究,与更多的接受者相比,并讨论了一些经验教训。
translated by 谷歌翻译
本文针对具有静态障碍的约束工作空间中的多个水下航行器操纵系统(UVMS)进行协同物体运输的问题,其中协调仅依赖于机器人与普通抓取物体的物理相互作用引起的隐性通信。我们提出了一种新颖的分布式领导者 - 跟随式结构,其中领先的UVMS,其具有对象的期望轨迹的知识,试图通过阻抗控制定律实现期望的跟踪行为,以这种方式导航,朝向目标配置的整体形成,同时避免碰撞有障碍。另一方面,以下UVMS通过新规定的性能估计法则估计物体的期望轨迹,并实施类似的阻抗控制定律。反馈依赖于每个UVMS的力/扭矩测量,并且没有明确的数据在机器人之间在线交换。此外,控制方案根据其特定的有效负载能力采用UVMS之间的负载分配。最后,各种模拟研究阐明了所提出的方法并验证了其效率。
translated by 谷歌翻译
胸部X射线(CXR)是最常用的医学图像模式之一。它们主要用于筛查,并且疾病的适应症导致随后的测试。由于这主要是用于排除胸部异常的筛查测试,因此请求的临床医生通常对CXR是否正常感兴趣。机器学习算法可以准确地筛选出所有要求的CXR中的一小部分“真实正常”考试,这对于减少放射科医师的工作量非常有益。在这项工作中,我们报告了一个深入的神经网络,该网络经过培训,用于分类CXR,目的是识别大量正常(无疾病)图像,而不会冒病人患病。我们使用一个ImageNet预训练的Inception-ResNet-v2模型来提供图像特征,这些特征进一步用于训练专家放射学家标记的CXR上的模型。分类的概率阈值针对正常类别优化为100%精确度,确保不释放病人。我们报告的平均召回率为50%。这意味着提出的解决方案有可能减少放射科医师无疾病CXR检测数量的一半,而不会冒病人患病。
translated by 谷歌翻译
近年来,已经开发了许多方法来识别文本文档的重要部分。摘要工具可以利用这些方法从大量文本信息中提取摘要。然而,识别代表文本文档中的中心思想的概念并提取最能传达这些概念的信息量最大的句子仍然是摘要方法中的两个关键任务。在本文中,我们介绍了一种基于图形的方法,以在生物医学文本摘要的背景下解决这两个挑战。我们展示了摘要生成器如何使用亥姆霍兹原则在生物医学文本文档中发现有意义的概念。摘要者将有意义的概念视为主要主题,并根据句子共享的主题构建图形。 Thesummarizer可以通过提取具有更高程度值的那些句子来产生信息摘要。我们使用Recall-Oriented Understudy for Gisting Evaluation(ROUGE)工具包评估我们的生物医学文章方法的表现。结果表明,在这种基于图的建模中,程度可以是一个有用的中心度量来识别重要句子。与一些最先进的和公开的报告者相比,我们的方法可以提高生物医学文本摘要的性能。将基于概念的建模策略和基于图形的方法结合到句子提取中,我们的摘要生成器可以在比较方法中生成具有最高分数信息的摘要。这项研究工作可以作为研究小世界网络生物医学文本的起点。
translated by 谷歌翻译
在本文中,我们提出了一种从多模态脑磁共振图像中分割多发性硬化(MS)病变的自动化方法。我们的方法基于深度端到端2D卷积神经网络(CNN)基于福斯莱克的3D体积数据分割。所提出的CNN包括多分支下采样路径,其使得网络能够分别对来自多个模态的切片进行编码。提出了多尺度特征融合块,以在网络的不同阶段组合来自不同模态的特征图。然后,提出了多尺度特征上采样块来组合具有不同分辨率的组合特征图,以利用来自病变的形状和位置的信息。我们使用每个3D模态的正交平面方向训练和测试我们的模型,以利用所有方向的上下文信息。拟议的管道在两个不同的数据集上进行评估,包括37名MS患者的私人数据集和称为ISBI 2015纵向MS病变分段挑战数据集的公共数据集,由14名MS患者组成。考虑到ISBI挑战,在提交时,我们的方法是最佳表现解决方案之一。在私有数据集上,在ISBI挑战中使用相同的性能指标数组,与其他公开可用的工具相比,所提出的方法显示了MSlesion细分的高度改进。
translated by 谷歌翻译
我们提出了Open Images V4,这是一个9.2M图像的数据集,带有用于图像分类,对象检测和视觉关系检测的统一注释。图像具有Creative Commons Attribution许可证,允许共享和添加材料,它们是从Flickr收集的,没有预先定义类名或标签列表,导致自然类统计并避免初始设计偏差。 Open Images V4提供了几个尺寸的大规模:30.1M图像级标签,用于19.8k概念,15.4M边界框用于600个对象类,375k视觉关系注释包含57个类。特别是对于物体检测,我们提供比下一个最大数据集多15倍的边界框(1.9M图像上的15.4M框)。图像通常显示具有多个对象的复杂场景(平均8个带注释的对象周围图像)。我们注释了它们之间的视觉关系,它支持视觉关系检测,这是一项需要结构化推理的新兴任务。我们提供有关数据集的深入全面的统计数据,我们验证注释的质量,并研究许多现代模型的性能如何随着训练数据量的增加而演变。我们希望Open Image V4的规模,质量和种类能够促进进一步的研究和创新,甚至超越图像分类,物体检测和视觉关系检测领域。
translated by 谷歌翻译
红外搜索和跟踪(IRST)系统中的红外小目标检测是一项具有挑战性的任务。当高红外强度结构背景出现在红外导引头的视场(FoV)中时,这种情况变得更加复杂。虽然大多数红外小目标检测算法忽略了方向信息,但本文提出了一种抑制结构背景和开发更有效的检测算法的方向性方法。为此,利用与平均绝对灰度差(AAGD)相似的概念构造了一种称为绝对方向平均差(ADMD)的定向小目标检测算法。同时,本文提出了一种有效的实现方法。该算法有效地增强了目标区域,减少了背景杂波。实际红外图像的仿真结果证明了该算法的有效性。
translated by 谷歌翻译
口语理解(SLU)系统广泛用于处理客户护理呼叫。传统的SLU系统由声学模型(AM)和语言模型(LM)组成,用于解释话语和自然语言理解(NLU)模型这预示着意图。虽然AM可以在不同的域中共享,但LM和NLU模型需要特别针对每个新任务进行背叛。但是,为trainthese模型准备足够的数据是非常昂贵的。在本文中,我们介绍了扩展有限域内数据的有效方法。该过程开始于基于the-domaindata上的逻辑回归来训练初步的NLU模型。由于这些特征基于n = 1,2克,因此我们可以为每个意图类检测出最具信息性的n-gram。使用这些n-gram,我们发现域外语料库中的样本1)包含所需的n-gram和/或2)具有相似的意图标签。满足第一约束的那些用于构造新的LM模型,并且满足两个约束的那些用于新的NLU模型。我们在两个不同的实验设置上的结果表明,与初步模型相比,所提出的方法减少了绝对分类错误率(CER)的30%,并且它明显优于传统的数据扩展算法,例如基于半监督学习,TF-IDF和嵌入向量的算法。
translated by 谷歌翻译
受近期利用在超图上开发机器学习和数据挖掘算法的启发,我们在本文中研究了通过最优传输方式在超图上传播“软标签”(例如概率分布,类成员分数)的半监督学习算法。借用Wasserstein在图上传播的见解[Solomon et al。我们将标签传播过程重新制定为amessage-passing算法,通过Wasserstein重心将其自然地应用于超图。此外,在aPAC学习框架中,我们通过建立所提出的半监督学习算法的\ textit {算法稳定性},使用2-Wassersteindistance提供在图和超图上传播一维分布的泛化误差界限。这些理论结果也为深入理解瓦瑟斯坦在图上的传播提供了新的思路。
translated by 谷歌翻译
医学图像分析从业者已经接受了大数据方法论。这创造了对大型注释数据集的需求。大数据的来源通常是为这些图像记录的大型图像集和临床报告。然而,在许多情况下,构建旨在分割和检测疾病的算法需要训练数据集,其具有与所描述的异常匹配的图像上感兴趣区域的标记。这个注释过程很昂贵,需要临床医生的参与。在这项工作中,我们提出了两个独立的深度神经网络架构,用于在给定文本报告或一组关键字的最佳表示查找位置的图像上自动标记感兴趣区域(ROI)。一种体系结构由LSTM和CNN组件组成,并且针对这些图像进行端到端的训练,包括图像,匹配文本和ROI标记。输出估计多边形区域的顶点的坐标。第二架构使用在相同图像类型的大数据集上预训练的网络,用于学习感兴趣的发现的特征表示。我们展示了胸部X射线图像的各种发现,两个建议的结构都学会了通过临床注释验证的ROI估计。从具有预先训练的成像网络的体系结构中获得了明显的优势。由该网络标记的ROI的质心平均距离相当于地面实况ROI的质心的图像宽度的5.1%。
translated by 谷歌翻译