目前,病变分割仍由医学专家手动(orsemi-automatic)进行。为了促进这一过程,我们提供了一个全自动的病变分割管道。这项工作提出了一种方法,作为针对ISBI 17和MICCAI 17的LiTS(肝肿瘤分割挑战)竞赛的一部分,比较CT扫描中肝脏的自动化评估方法。通过利用级联,密集连接的2D U-Nets和基于Tversky系数的损失函数,我们的框架实现了非常好的形状提取,具有高检测灵敏度,在出版时具有竞争性分数。此外,在我们的Tversky-loss中调整超参数允许将网络调整为更高的灵敏度或稳健性。
translated by 谷歌翻译
在这项工作中,我们报告了结合IEEE国际生物医学成像研讨会(ISBI)2016和国际医学影像计算机辅助干预会议(MICCAI)2017年组织的肝肿瘤分割基准(LITS)的设置和结果。将24种有效的最先进的肝脏和肝脏肿瘤分段算法应用于一组131个计算机断层扫描(CT)体积,具有不同类型的肿瘤对比度水平(高强度/低强度),组织异常(转移瘤)大小和不同程度的病变。已提交的算法已在70个未公开的卷上进行了测试。该数据集是与七家医院和研究机构合作创建的,由三位独立的放射科医师手动审查。我们发现没有一种算法对肝脏和肿瘤表现最佳。最佳肝脏分割算法的Dice评分为0.96(MICCAI),而对于肿瘤分割,最佳算法评估为0.67(ISBI)和0.70(MICCAI)。 LITS图像数据和手动注释继续通过在线评估系统公开提供,作为持续的基准测试资源。
translated by 谷歌翻译
我们通过基于Kiros等人的多尺度特征学习方法来解决血管分割问题,该方法在VESSEL12 MICCAI挑战中实现了当前的最高分。根据他们对功能学习的想法而不是手工制作的过滤器,我们扩展了学习3D功能的方法。使用通过最小角度回归的字典学习,在多尺度方案中以无监督的方式学习这些特征。 3D特征内核进一步与输入卷卷积以创建特征映射。这些地图用于训练带有注释体素的监督分类器。为了利用大量滤波器处理3D数据,已经开发了并行实现。该算法已应用于VESSEL12挑战提供的示例扫描和注释。我们已经将我们的设置与Kiros等人进行了比较。通过运行他们的实现。我们目前的结果显示,切片方法的准确度从96.66 $ \ pm $ 1.10%增加到97.24 $ \ pm $ 0.90%。
translated by 谷歌翻译
我们首次尝试使用深度学习结构从中等(3.9 {\μm}各向同性)和低(8.3 {\ mu} m各向同性)分辨率的X射线计算机断层扫描体积数据集执行短玻璃纤维语义分割。我们在合成和真实CT扫描上进行了实验,并评估了具有2D和3D内核的深度完全卷积体系结构。我们的人工神经网络在中低分辨率扫描中优于现有方法。
translated by 谷歌翻译
由于缺少标准参考数据集,在工业计算机断层扫描(CT)扫描中比较用于分割玻璃纤维的不同算法是困难的。在这项工作中,我们引入了一组短纤维增强聚合物(SFRP)的注释扫描以及综合创建的CTvolume数据以及评估指标。我们建议将度量和数据集作为研究不同算法性能的参考。真实的扫描是通过尼康MCT225 X射线CT系统获得的。模拟扫描是通过使用内部计算模型和第三方商业软件创建的。对于这两种类型的数据,已经准备了相应的groundtruth注释,包括realscans的手工注释和合成扫描的STL模型。此外,已经实现了一种用于光纤分割的基于Hessian的Frangi血管滤波器,并且开源以作为比较的参考。
translated by 谷歌翻译
我们提出了一种新方法,用于从短玻璃纤维增​​强聚合物的低分辨率3D X射线计算机断层扫描中自动提取(实例分割)纤维。我们设计了一个基于深度完全卷积网络的3D实例分段架构,用于语义分割,并具有用于嵌入学习的额外输出。我们展示了嵌入式学习能够学习体素到嵌入空间的映射,其中可以使用标准聚类算法来区分卷中对象的不同实例。此外,我们讨论了一种后处理方法,它可以处理任何大小的卷。所提出的三维实例分割网络与我们的融合算法是作者知识程序首先已知的,其产生的结果足够好,它们可用于进一步分析低分辨率纤维复合材料CT扫描。
translated by 谷歌翻译
可微分神经计算机(DNC)可以学习算法和问答任务。对其内部激活模式的分析揭示了三个问题:最重要的是,缺少键值分离使得基于内容的查找产生的地址分布嘈杂且平坦,因为该值会影响分数计算,尽管只有密钥应该。其次,DNC的内存分配会导致别名,这对于基于内容的查找来说是个问题。第三,用时间链接矩阵链接存储器读取指数地降低地址分布的质量。我们提出的这些问题的解决方案可以提高arithmetictasks的性能,并且还可以将bAbI问题回答数据集的平均错误率提高43%。
translated by 谷歌翻译
对于计算机辅助手术领域中的许多应用,例如提供肿瘤的位置,指定外科医生所需的最可能的工具或确定手术的剩余持续时间,手术工作流分析的方法是先决条件。通常基于机器学习的方法作为外科工作流分析的基础。通常,机器学习算法(例如卷积神经网络(CNN))需要大量标记数据。虽然数据通常可以大量获取,但外科工作流分析中的许多任务需要由领域专家注释的数据,这使得难以获得足够数量的注释。使用主动学习训练机器学习模型的目的是减少注释工作量。主动学习方法根据某些度量确定哪些未标记的数据点将提供最多信息,例如预测不确定性。然后,专家将被要求仅对theataata点进行注释。然后使用新数据对模型进行再训练,并用于选择用于注释的其他数据。最近,主动学习已经通过Deep Bayesian Networks(DBN)应用于CNN。这些网络可以将不确定性分配给预测。在本文中,我们提出了一种基于DBN的主动学习方法,适用于基于图像的手术工作流分析任务。此外,通过使用recurrentarchitecture,我们将该网络扩展到基于视频的手术工作流程分析。我们通过执行仪器在线检测和手术相位分割来评估Cholec80数据集上的这些方法。在这里,我们可以证明使用基于DBN的主动学习方法来选择接下来注释的数据点优于基于随机选择数据点的基线。
translated by 谷歌翻译
We quantify the accuracy of various simulators compared to a real world robotic reaching and interaction task. Simulators are used in robotics to design solutions for real world hardware without the need for physical access. The 'reality gap' prevents solutions developed or learnt in simulation from performing well, or at at all, when transferred to real-world hardware. Making use of a Kinova robotic manipulator and a motion capture system, we record a ground truth enabling comparisons with various simulators, and present quantitative data for various manipulation-oriented robotic tasks. We show the relative strengths and weaknesses of numerous contemporary simulators, highlighting areas of significant discrepancy, and assisting researchers in the field in their selection of appropriate simulators for their use cases. All code and parameter listings are publicly available from: https://bitbucket.csiro.au/scm/˜col549/quantifying-the-reality-gap-in-robotic-manipulation-tasks.git.
translated by 谷歌翻译
Camera viewpoint selection is an important aspect of visual grasp detection, especially in clutter where many occlusions are present. Where other approaches use a static camera position or fixed data collection routines, our Multi-View Picking (MVP) controller uses an active perception approach to choose informative viewpoints based directly on a distribution of grasp pose estimates in real time, reducing uncertainty in the grasp poses caused by clutter and occlusions. In trials of grasping 20 objects from clutter, our MVP controller achieves 80% grasp success, outperforming a single-viewpoint grasp detector by 12%. We also show that our approach is both more accurate and more efficient than approaches which consider multiple fixed viewpoints. Code is available at https://github.com/dougsm/mvp_grasp
translated by 谷歌翻译