许多可解释性工具使从业人员和研究人员可以解释自然语言处理系统。但是,每个工具都需要不同的配置,并提供不同形式的解释,从而阻碍了评估和比较它们的可能性。原则上的统一评估基准将指导用户解决中心问题:哪种解释方法对我的用例更可靠?我们介绍了雪貂,这是一个易于使用的,可扩展的Python库,以解释与拥抱面枢纽集成的基于变形金刚的模型。它提供了一个统一的基准测试套件来测试和比较任何文本或可解释性语料库的广泛最先进的解释器。此外,雪貂提供方便的编程摘要,以促进新的解释方法,数据集或评估指标的引入。
translated by 谷歌翻译
我们提出了GAAF(一种广义自动解剖器查找器),用于鉴定3D CT扫描中的通用解剖位置。GAAF是端到端管道,具有专用模块用于数据预处理,模型培训和推理。GAAF以核心使用自定义卷积神经网络(CNN)。CNN型号很小,轻巧,可以调整以适合特定应用。到目前为止,GAAF框架已经在头部和颈部进行了测试,并且能够找到解剖位置,例如脑干的质量中心。GAAF在开放式数据集中进行了评估,并且能够准确稳健地定位性能。我们所有的代码都是开源的,可在https://github.com/rrr-uom-projects/gaaf上找到。
translated by 谷歌翻译
使用卷积神经网络(CNNS)自动分割CT扫描中的器官 - AT风险(OARS),正在放疗工作流中。但是,这些细分仍需要在临床使用前进行临床医生的手动编辑和批准,这可能很耗时。这项工作的目的是开发一种工具,以自动识别3D OAR细分中的错误,而无需基础真相。我们的工具使用了结合CNN和图神经网络(GNN)的新型体系结构来利用分割的外观和形状。使用合成生成的腮腺分割数据集并使用逼真的轮廓错误的数据集对所提出的模型进行训练。通过消融测试评估我们的模型的有效性,评估了体系结构不同部分的功效,以及从无监督的借口任务中使用转移学习。我们最佳性能模型预测了腮腺上的错误,内部和外部错误的精度分别为85.0%和89.7%,召回66.5%和68.6%。该离线质量检查工具可以在临床途径中使用,有可能减少临床医生通过检测需要注意的区域来纠正轮廓的时间。我们所有的代码均可在https://github.com/rrr-uom-projects/contour_auto_qatool上公开获得。
translated by 谷歌翻译
在远程多机器人自主探索任务(例如搜索和响应)中,语义对象映射在不确定的,感知下降的环境中是重要且具有挑战性的。在此类任务期间,需要高度召回,避免缺少真正的目标对象,而高精度对于避免在假阳性上浪费宝贵的操作时间也至关重要。鉴于视觉感知算法的最新进展,前者在很大程度上可以自主解决,但是如果没有人类操作员的监督,后者很难解决。但是,诸如任务时间,计算要求,网络网络带宽等诸如操作限制可能使操作员的任务变得不可行,除非得到适当管理。我们提出了早期的召回,较晚的精度(Earlap)语义对象映射管道,以解决此问题。 Earlap在DARPA Subterranean Challenge中被Team Costar使用,在那里成功发现了机器人团队遇到的所有工件。我们将在各种数据集上讨论Earlap的这些结果和性能。
translated by 谷歌翻译
大型语言模型可以编码有关世界的大量语义知识。这种知识对于旨在采取自然语言表达的高级,时间扩展的指示的机器人可能非常有用。但是,语言模型的一个重大弱点是,它们缺乏现实世界的经验,这使得很难利用它们在给定的体现中进行决策。例如,要求语言模型描述如何清洁溢出物可能会导致合理的叙述,但是它可能不适用于需要在特定环境中执行此任务的特定代理商(例如机器人)。我们建议通过预处理的技能来提供现实世界的基础,这些技能用于限制模型以提出可行且在上下文上适当的自然语言动作。机器人可以充当语​​言模型的“手和眼睛”,而语言模型可以提供有关任务的高级语义知识。我们展示了如何将低级技能与大语言模型结合在一起,以便语言模型提供有关执行复杂和时间扩展说明的过程的高级知识,而与这些技能相关的价值功能则提供了连接必要的基础了解特定的物理环境。我们在许多现实世界的机器人任务上评估了我们的方法,我们表明了对现实世界接地的需求,并且这种方法能够在移动操纵器上完成长远,抽象的自然语言指令。该项目的网站和视频可以在https://say-can.github.io/上找到。
translated by 谷歌翻译
我们考虑代表代理模型的问题,该模型使用我们称之为CSTREES的阶段树模型的适当子类对离散数据编码离散数据的原因模型。我们表明,可以通过集合表达CSTREE编码的上下文专用信息。由于并非所有阶段树模型都承认此属性,CSTREES是一个子类,可提供特定于上下文的因果信息的透明,直观和紧凑的表示。我们证明了CSTREEES承认全球性马尔可夫属性,它产生了模型等价的图形标准,概括了Verma和珍珠的DAG模型。这些结果延伸到一般介入模型设置,使CSTREES第一族的上下文专用模型允许介入模型等价的特征。我们还为CSTREE的最大似然估计器提供了一种封闭式公式,并使用它来表示贝叶斯信息标准是该模型类的本地一致的分数函数。在模拟和实际数据上分析了CSTHEELE的性能,在那里我们看到与CSTREELE而不是一般上演树的建模不会导致预测精度的显着损失,同时提供了特定于上下文的因果信息的DAG表示。
translated by 谷歌翻译
We describe a learning-based approach to handeye coordination for robotic grasping from monocular images. To learn hand-eye coordination for grasping, we trained a large convolutional neural network to predict the probability that task-space motion of the gripper will result in successful grasps, using only monocular camera images and independently of camera calibration or the current robot pose. This requires the network to observe the spatial relationship between the gripper and objects in the scene, thus learning hand-eye coordination. We then use this network to servo the gripper in real time to achieve successful grasps. To train our network, we collected over 800,000 grasp attempts over the course of two months, using between 6 and 14 robotic manipulators at any given time, with differences in camera placement and hardware. Our experimental evaluation demonstrates that our method achieves effective real-time control, can successfully grasp novel objects, and corrects mistakes by continuous servoing.
translated by 谷歌翻译