背景技术分析运动和视频数据可以帮助识别可能的错误动作,导致机器人辅助手术中的次优外科医生性能和安全关键事件。方法开发针对识别任务和手势的刽子手和程序错误的标题,并评估从拼图数据集中缝合和针传递任务的干燥实验室演示。我们通过标记视频数据来表征示范的错误部分,以及在运动数据上使用分发相似性分析和轨迹平均来识别区分错误手势的参数。结果刽子手误差频率因任务和手势而异,与技能水平相关。每个手势中的一些主要误差模式通过分析特定误差的运动参数来区分。程序错误可能导致性能分数降低,并增加了演示时间,但也取决于手术方式。结论本研究提供了对依赖于上下文错误的见解,这些错误可用于设计自动化错误检测机制并改善培训和技能评估。
translated by 谷歌翻译
目的:我们提出了一个正式的框架,用于使用统一的运动原始图(MPS)作为基本手术动作来建模手术任务,以实现不同数据集的更客观的标记和聚集,并培训通用模型,以实现手术动作识别。方法:我们使用我们的框架来创建上下文和运动原始骨料外科手术集(指南针),包括来自三个公共可用数据集(拼图,桌子,桌子和Rosma)的六个干燥LAB手术任务标签。提出了标记手术环境和自动转换为MPS的方法。我们提出了一项任务(Loto)交叉验证方法,以评估模型概括为看不见的任务的能力。结果:我们的上下文标签方法达到了众包的共识标签与专家外科医生之间的几乎完美的一致性。对MPS的任务进行分割,可以生成单独的左右笔录,并显着改善Loto的性能。我们发现,如果对具有相同上下文的任务和/或来自同一数据集的任务进行了培训,则MP细分模型的性能最佳。结论:所提出的框架可以基于上下文和细粒度的MPS对外科数据进行高质量的标记。使用MPS对外科手术任务进行建模可以使不同数据集的汇总用于训练动作识别模型,这些模型可以比在手势级别训练的模型更好地概括地看不见的任务。意义:我们的正式框架和汇总数据集可以支持用于手术过程分析,技能评估,错误检测和自治的模型和算法的开发。
translated by 谷歌翻译
掌握进行手术所需的技术技能是一项极具挑战性的任务。基于视频的评估使外科医生可以收到有关其技术技能的反馈,以促进学习和发展。目前,此反馈主要来自手动视频评论,该视频审查是耗时的,限制了在许多情况下跟踪外科医生进展的可行性。在这项工作中,我们引入了一种基于运动的方法,以自动评估手术病例视频饲料的手术技能。拟议的管道首先可靠地轨道轨迹,以创建运动轨迹,然后使用这些轨迹来预测外科医生的技术技能水平。跟踪算法采用了一个简单而有效的重新识别模块,与其他最新方法相比,它可以改善ID-开关。这对于创建可靠的工具轨迹至关重要,当仪器定期在屏幕上和屏幕外移动或定期遮盖。基于运动的分类模型采用最先进的自我发明变压器网络来捕获对技能评估至关重要的短期和长期运动模式。在体内(Cholec80)数据集上评估了所提出的方法,其中专家评级的目标技能评估对Calot三角解剖的评估被用作定量技能度量。我们将基于变压器的技能评估与传统的机器学习方法进行比较,并使用拟议的和最新的跟踪方法进行比较。我们的结果表明,使用可靠跟踪方法的运动轨迹对仅根据视频流进行评估的外科医生技能是有益的。
translated by 谷歌翻译
本研究的目标是开发新的可靠开放式手术缝合培训医学院的仿真系统,以便在资源有限或国内设置。即,我们开发了一种工具和手本地化的算法,以及根据简单的网络摄像头视频数据,计算出用于评估外科技能的运动指标。二十五位参与者使用我们的模拟器执行多个缝合任务。 yolo网络已被修改为多任务网络,以便工具本地化和工具手动交互检测。这是通过分割YOLO检测头来实现的,使得它们支持两项任务,以对计算机运行时间最小的添加。此外,基于系统的结果,计算了运动指标。这些指标包括传统的指标,如时间和路径长度以及评估技术参与者使用的新度量来控制工具。双重任务网络性能与两个网络的性能类似,而计算负载仅略大于一个网络。此外,运动指标显示专家和新手之间的显着差异。虽然视频捕获是微创手术的重要组成部分,但它不是开放手术的整体组成部分。因此,需要新的算法,重点关注当前的独特挑战,是开放的手术视频存在。在本研究中,开发了一种双任务网络来解决本地化任务和手动工具交互任务。双网络可以很容易地扩展到多任务网络,这可能对具有多个层的图像有用,并且用于评估这些不同层之间的交互。
translated by 谷歌翻译
内镜窦和头骨基础手术(Essbss)是一个具有挑战性和潜在的危险的外科手术,客观技能评估是提高手术训练有效性的关键组成部分,重新​​验证外科医生的技能,并降低手术创伤和并发症手术室的速度。由于外科手术的复杂性,操作风格的变化,以及新的外科技能的快速发展,外科技能评估仍然是一个具有挑战性的问题。这项工作提出了一种新颖的高斯过程学习的启发式自动客观外科手术技能评估方法。不同于经典的外科技能评估算法,所提出的方法1)利用外科仪器相对运动中的运动学特征,而不是使用特定的外科任务或统计数据实时评估技能; 2)提供信息丰富的反馈,而不是总结分数; 3)能够逐步从新数据逐步学习,而不是根据固定的数据集。该方法将仪器运动投射到内窥镜坐标中以减少数据维度。然后,它提取投影数据的运动学特征,并学习外科技能水平与高斯过程学习技术的特征之间的关系。该方法在全内镜颅底和尸体上的鼻窦手术中核实。这些手术具有不同的病理学,需要不同的治疗并具有不同的复杂性。实验结果表明,该方法达到了100 \%的预测精度,用于完整的外科手术和90 \%的实时预测评估精度。
translated by 谷歌翻译
机器人辅助的手术辅助外科医生和患者,但外科医生经常需要调整内窥镜摄像头以实现良好的观点。同时控制相机和外科手术器械是不可能的,因此,这些相机调整反复中断手术。自主摄像机控制可以帮助克服这一挑战,但大多数现有系统都是反应性的,例如,通过使相机遵循外科手术器械。当使用人工神经网络发生相机运动时,我们提出了一种预测的方法,以期待相机运动。我们使用了手术器械的运动学数据,这些数据在猪模型的机器人辅助手术训练中记录。我们将数据拆分为段,并将其标记为立即在相机移动之前的段,或者段。由于阶级的不平衡庞大,我们培训了一个网络的集合,每个网络都在训练数据的平衡子集上。我们发现仪器的运动学数据可用于预测当发生相机运动时,并在不同段持续时间和合奏尺寸上进行评估。我们还研究了预测即将到来的相机运动的提前多少,并且发现预测相机运动0.25,0.5和1秒,在它们发生的情况下实现98%,94%和84%的精度相对于迫在眉睫的预测相机运动。这表明可以早期预测相机运动事件以留出计算和执行自主摄像机运动的时间,并表明可以有一天可以是可行的RAMIS的自主摄像机控制器。
translated by 谷歌翻译
机器人辅助的微创手术(RMI)缺乏触觉反馈是在手术过程中安全组织处理的潜在障碍。贝叶斯建模理论表明,与没有经验的外科医生相比,在RMIS期间,具有开放或腹腔镜手术经验的外科医生可以发展为组织刚度的先验。为了测试先前的触觉经验是否导致远程操作的力估计能力提高,将33名参与者分配到三个训练条件之一:手动操纵,用力反馈的远程操作或无力反馈的远程操作,并学会了将硅胶样品张紧到一套力值。然后,他们被要求执行张力任务,以及先前未经触觉的任务,而无需反馈而在远程操作下进行不同的力量值。与远程操作组相比,手动组在训练的力量范围之外的张力任务中具有较高的力误差,但在低力水平下,在触诊任务中显示出更好的速度准确性功能。这表明训练方式的动力学会影响远程操作过程中的力估计能力,如果在与任务相同的动态下形成,则可以访问先前的触觉体验。
translated by 谷歌翻译
我们研究了实时的协作机器人(Cobot)处理,Cobot在人类命令下操纵工件。当人类直接处理工件时,这是有用的。但是,在可能的操作中难以使COBOT易于命令和灵活。在这项工作中,我们提出了一个实时协作机器人处理(RTCOHand)框架,其允许通过用户定制的动态手势控制COBOT。由于用户,人类运动不确定性和嘈杂的人类投入的变化,这很难。我们将任务塑造为概率的生成过程,称为条件协作处理过程(CCHP),并从人类的合作中学习。我们彻底评估了CCHP的适应性和稳健性,并将我们的方法应用于Kinova Gen3机器人手臂的实时Cobot处理任务。我们实现了与经验丰富和新用户的无缝人员合作。与古典控制器相比,RTCEHAND允许更复杂的操作和更低的用户认知负担。它还消除了对试验和错误的需求,在安全关键任务中呈现。
translated by 谷歌翻译
开放程序代表全球手术的主要形式。人工智能(AI)有可能优化手术实践并改善患者结果,但努力主要集中在微创技术上。我们的工作通过策划,从YouTube,从YouTube,Open Surgical视频的最大数据集克服了培训AI模型的现有数据限制:1997年从50个国家上传的23个外科手术的视频。使用此数据集,我们开发了一种能够实时了解外科行为,手和工具的多任务AI模型 - 程序流程和外科医生技能的构建块。我们表明我们的模型推广了各种外科类型和环境。说明这种普遍性,我们直接应用了YouTube培训的模型,分析了在学术医疗中心前瞻性收集的开放式手术,并确定了与手动效率相关的外科技能的运动学描述符。我们的开放外科(AVOS)数据集和培训模式的注释视频将可用于进一步发展外科艾。
translated by 谷歌翻译
本文对人机对象切换的文献进行了调查。切换是一种协作的关节动作,其中代理人,给予者,给予对象给另一代理,接收器。当接收器首先与给予者持有的对象并结束时,当给予者完全将物体释放到接收器时,物理交换开始。然而,重要的认知和物理过程在物理交换之前开始,包括在交换的位置和时间内启动隐含协议。从这个角度来看,我们将审核构成了上述事件界定的两个主要阶段:1)预切换阶段和2)物理交流。我们专注于两位演员(Giver和Receiver)的分析,并报告机器人推动者(机器人到人类切换)和机器人接收器(人到机器人切换)的状态。我们举报了常用于评估互动的全面的定性和定量度量列表。虽然将我们的认知水平(例如,预测,感知,运动规划,学习)和物理水平(例如,运动,抓握,抓取释放)的审查重点,但我们简要讨论了安全的概念,社会背景,和人体工程学。我们将在人对人物助手中显示的行为与机器人助手的最新进行比较,并确定机器人助剂的主要改善领域,以达到与人类相互作用相当的性能。最后,我们提出了一种应使用的最小度量标准,以便在方法之间进行公平比较。
translated by 谷歌翻译
我们研究了复杂几何物体的机器人堆叠问题。我们提出了一个挑战和多样化的这些物体,这些物体被精心设计,以便要求超出简单的“拾取”解决方案之外的策略。我们的方法是加强学习(RL)方法与基于视觉的互动政策蒸馏和模拟到现实转移相结合。我们的学习政策可以有效地处理现实世界中的多个对象组合,并展示各种各样的堆叠技能。在一个大型的实验研究中,我们调查在模拟中学习这种基于视觉的基于视觉的代理的选择,以及对真实机器人的最佳转移产生了什么影响。然后,我们利用这些策略收集的数据并通过离线RL改善它们。我们工作的视频和博客文章作为补充材料提供。
translated by 谷歌翻译
在本文中,我们讨论了通过模仿教授双人操作任务的框架。为此,我们提出了一种从人类示范中学习合规和接触良好的机器人行为的系统和算法。提出的系统结合了入学控制和机器学习的见解,以提取控制政策,这些政策可以(a)从时空和空间中恢复并适应各种干扰,同时(b)有效利用与环境的物理接触。我们使用现实世界中的插入任务证明了方法的有效性,该任务涉及操纵对象和插入钉之间的多个同时接触。我们还研究了为这种双人设置收集培训数据的有效方法。为此,我们进行了人类受试者的研究,并分析用户报告的努力和精神需求。我们的实验表明,尽管很难提供,但在遥控演示中可用的其他力/扭矩信息对于阶段估计和任务成功至关重要。最终,力/扭矩数据大大提高了操纵鲁棒性,从而在多点插入任务中获得了90%的成功率。可以在https://bimanualmanipulation.com/上找到代码和视频
translated by 谷歌翻译
In the learning from demonstration (LfD) paradigm, understanding and evaluating the demonstrated behaviors plays a critical role in extracting control policies for robots. Without this knowledge, a robot may infer incorrect reward functions that lead to undesirable or unsafe control policies. Recent work has proposed an LfD framework where a user provides a set of formal task specifications to guide LfD, to address the challenge of reward shaping. However, in this framework, specifications are manually ordered in a performance graph (a partial order that specifies relative importance between the specifications). The main contribution of this paper is an algorithm to learn the performance graph directly from the user-provided demonstrations, and show that the reward functions generated using the learned performance graph generate similar policies to those from manually specified performance graphs. We perform a user study that shows that priorities specified by users on behaviors in a simulated highway driving domain match the automatically inferred performance graph. This establishes that we can accurately evaluate user demonstrations with respect to task specifications without expert criteria.
translated by 谷歌翻译
已知人类凝视是在操纵任务期间的潜在人类意图和目标的强大指标。这项工作研究人类教师的凝视模式证明了机器人的任务,并提出了这种模式可用于增强机器人学习的方式。使用Kinesthetic教学和视频演示,我们在教学中识别新颖的意图揭示凝视行为。这些在各种问题中被证明是从参考帧推理到多步任务的分割的各种问题。基于我们的研究结果,我们提出了两个概念验证算法,该算法表明,凝视数据可以增强多台任务的子任务分类,高达6%,奖励推理和策略学习,可为单步任务高达67%。我们的调查结果为机器人学习中的自然人凝视模型提供了基础,从演示设置上学习,并在利用人凝游来提高机器人学习的开放问题。
translated by 谷歌翻译
Timely and effective feedback within surgical training plays a critical role in developing the skills required to perform safe and efficient surgery. Feedback from expert surgeons, while especially valuable in this regard, is challenging to acquire due to their typically busy schedules, and may be subject to biases. Formal assessment procedures like OSATS and GEARS attempt to provide objective measures of skill, but remain time-consuming. With advances in machine learning there is an opportunity for fast and objective automated feedback on technical skills. The SimSurgSkill 2021 challenge (hosted as a sub-challenge of EndoVis at MICCAI 2021) aimed to promote and foster work in this endeavor. Using virtual reality (VR) surgical tasks, competitors were tasked with localizing instruments and predicting surgical skill. Here we summarize the winning approaches and how they performed. Using this publicly available dataset and results as a springboard, future work may enable more efficient training of surgeons with advances in surgical data science. The dataset can be accessed from https://console.cloud.google.com/storage/browser/isi-simsurgskill-2021.
translated by 谷歌翻译
腔内器官内部的导航是一项艰巨的任务,需要在操作员的手的运动与从内窥镜视频获得的信息之间进行非直觉的协调。开发自动化某些任务的工具可以减轻干预期间医生的身体和精神负担,从而使他们专注于诊断和决策任务。在本文中,我们提出了一种用于腔内导航的协同解决方案,该解决方案由3D打印的内窥镜软机器人组成,该机器人可以在腔内结构内安全移动。基于卷积神经网络(CNN)的Visual Servoing用于完成自主导航任务。 CNN经过幻象和体内数据训练以分割管腔,并提出了一种无模型的方法来控制受约束环境中的运动。在不同的路径配置中,在解剖幻像中验证了所提出的机器人。我们使用不同的指标分析机器人的运动,例如任务完成时间,平滑度,稳态中的误差以及均值和最大误差。我们表明,我们的方法适合在空心环境和条件下安全导航,这些环境和条件与最初对网络训练的条件不同。
translated by 谷歌翻译
在索法机器人辅助手术过程中,对相互作用的知识可用于使人向人类操作员进行反馈并评估组织处理技能。然而,最终效应器的直接力传感是具有挑战性的,因为它需要生物相容性,可消毒和具有成本效益的传感器。使用卷积神经网络基于视觉的深度学习是提供有用力估计的一种有前途的方法,尽管关于对新场景和实时推理的概括仍然存在问题。我们提出了使用RGB图像和机器人状态作为输入的力估计神经网络。我们使用自收集的数据集,将网络与仅包含单个输入类型的变体进行了比较,并评估了它们如何推广到新观点,工作区位置,材料和工具。我们发现,基于视觉的网络对观点的变化很敏感,而仅州的网络对工作空间的变化却是强大的。具有状态和视觉输入的网络对于看不见的工具具有最高的精度,并且对观点的变化非常强大。通过特征去除研究,我们发现仅使用位置功能比仅使用力特征作为输入而产生的精度更好。具有状态和视觉输入的网络的准确性优于基于物理的基线模型。它显示出可比的准确性,但计算时间比基线复发性神经网络更快,这使其更适合实时应用。
translated by 谷歌翻译
Surgical robot automation has attracted increasing research interest over the past decade, expecting its huge potential to benefit surgeons, nurses and patients. Recently, the learning paradigm of embodied AI has demonstrated promising ability to learn good control policies for various complex tasks, where embodied AI simulators play an essential role to facilitate relevant researchers. However, existing open-sourced simulators for surgical robot are still not sufficiently supporting human interactions through physical input devices, which further limits effective investigations on how human demonstrations would affect policy learning. In this paper, we study human-in-the-loop embodied intelligence with a new interactive simulation platform for surgical robot learning. Specifically, we establish our platform based on our previously released SurRoL simulator with several new features co-developed to allow high-quality human interaction via an input device. With these, we further propose to collect human demonstrations and imitate the action patterns to achieve more effective policy learning. We showcase the improvement of our simulation environment with the designed new features and tasks, and validate state-of-the-art reinforcement learning algorithms using the interactive environment. Promising results are obtained, with which we hope to pave the way for future research on surgical embodied intelligence. Our platform is released and will be continuously updated in the website: https://med-air.github.io/SurRoL/
translated by 谷歌翻译
结肠镜检查的柔性内窥镜由于其固有的复杂性而产生了一些局限性,导致患者不适和缺乏临床医生的直觉。机器人设备和自主控制代表了一种可行的解决方案,以减少内镜医生的工作量和训练时间,同时改善整体程序结果。自主内窥镜控制的先前工作使用启发式政策,将其概括限制在非结构化和高度可变形的结肠环境中,需要频繁进行人类干预。这项工作提出了一种基于图像的内窥镜控制,使用深钢筋学习,称为深度视觉运动控制(DVC),以在结肠道的复杂部分中表现出适应性行为。 DVC学习内窥镜图像与内窥镜的控制信号之间的映射。对20位专家胃肠道内镜医生进行的首次用户研究是为了将其导航性能与使用现实的虚拟模拟器进行比较的DVC策略。结果表明,DVC在几个评估参数上显示出同等的性能,更安全。此外,与最先进的启发式控制政策相比,对20名新手参与者进行了第二次用户研究,以证明人类的监督更容易。对结肠镜检查程序的无缝监督将使干预主义者能够专注于医疗决策,而不是内窥镜的控制问题。
translated by 谷歌翻译
机器人辅助手术现已在临床实践中成熟,已成为几种临床适应症的黄金标准临床治疗选择。有机器人辅助手术的领域预计将在未来十年内大幅增长,其中一系列新的机器人设备出现以解决不同专业的未满足临床需求。充满活力的手术机器人研究界是概念化这种新系统的关键,以及开发和培训工程师和科学家们将它们转化为实践。 Da Vinci研究套件(DVRK),学术界和行业合作努力重新登记达芬奇外科系统(直观的Surgical Inc,USA)作为用于外科机器人研究的研究平台,是解决A的关键倡议在外科机器人中进入新研究群体的障碍。在本文中,我们对过去十年来的DVRK促进的出版物进行了广泛的审查。我们将研究努力分类为不同的类别,并概述了机器人社区的一些主要挑战和需求,以维护这一倡议并建立在它上面。
translated by 谷歌翻译