本文描述了可以用于控制上限假体的人机界面的新框架。目的是从嘈杂的表面肌电图信号中估算人类的电动机意图,并在存在以前看不见的扰动的情况下,对假体(即机器人)执行电动机意图。该框架包括每个自由度的肌肉弯曲模型,一种学习用于估计用户电机意图的模型的参数值的方法,以及使用从肌肉模型获得的刚度和阻尼值来适应的可变阻抗控制器假体运动轨迹和动力学。我们使用人机界面的模拟版本在强大的人类的背景下进行实验评估我们的框架,以执行主要在手腕中攻击一种自由的任务,并以统一力场的形式考虑外部扰动这将手腕从目标上推开。我们证明我们的框架提供了所需的自适应性能,并且与数据驱动的基线相比,可以大大提高性能。
translated by 谷歌翻译
为了在医疗和工业环境中广泛采用可穿戴机器人外骨骼,至关重要的是,它们可以适应性地支持大量运动。我们提出了一种新的人机界面,以同时在一系列“看不见的”步行条件和未用于建立控制界面的“看不见”步行条件和过渡期间同时驱动双侧踝部外骨骼。提出的方法使用人特异性的神经力学模型从测量的肌电图(EMG)和关节角度实时估算生物踝关节扭矩。基于干扰观察者的低级控制器将生物扭矩估计转换为外骨骼命令。我们称此“基于神经力学模型的控制”(NMBC)。 NMBC使六个人能够自愿控制六个步行条件下的双边踝部外骨骼,包括所有中间过渡,即两个步行速度,每个步行速度在三个地面高程中进行,不需要预先定义的扭矩轮廓,也不需要先验选择的神经肌肉肌肉反射规则,或国家机器在文献中很常见。在涉及月球漫步的灵活的运动任务上进行了一个单一的主题案例研究。 NMBC始终启用能够减少生物踝扭矩,以及与非辅助条件相比,在步行条件(24%扭矩; 14%EMG)之间以及步行条件(24%扭矩; 14%EMG)之间的八个踝部肌肉EMG。新型步行条件下的扭矩和EMG减少表明,外骨骼在操作员的神经肌肉系统控制的外观上进行了共生。这为系统地采用可穿戴机器人作为现场医疗和职业环境的一部分开辟了新的途径。
translated by 谷歌翻译
我们描述了更改 - 联系机器人操作任务的框架,要求机器人与对象和表面打破触点。这种任务的不连续交互动态使得难以构建和使用单个动力学模型或控制策略,并且接触变化期间动态的高度非线性性质可能对机器人和物体造成损害。我们提出了一种自适应控制框架,使机器人能够逐步学习以预测更改联系人任务中的接触变化,从而了解了碎片连续系统的交互动态,并使用任务空间可变阻抗控制器提供平滑且精确的轨迹跟踪。我们通过实验比较我们框架的表现,以确定所需的代表性控制方法,以确定我们框架的自适应控制和增量学习组件需要在变化 - 联系机器人操纵任务中存在不连续动态的平稳控制。
translated by 谷歌翻译
在各种条件下行走期间关节阻抗的知识与临床决策以及机器人步态培训师,腿部假体,腿矫形器和可穿戴外骨骼的发展相关。虽然步行过程中的脚踝阻抗已经通过实验评估,但尚未识别步行期间的膝盖和髋关节阻抗。在这里,我们开发并评估了下肢扰动器,以识别跑步机行走期间髋关节,膝关节和踝关节阻抗。下肢扰动器(Loper)由致动器组成,致动器通过杆连接到大腿。 Loper允许将力扰动施加到自由悬挂的腿上,同时站立在对侧腿上,带宽高达39Hz。在以最小的阻抗模式下行走时,Loper和大腿之间的相互作用力低(<5N),并且对行走图案的效果小于正常行走期间的对象内变异性。使用摆动腿动力学的非线性多体动力学模型,在摆动阶段在速度为0.5米/秒的速度的九个受试者期间估计臀部,膝关节和踝关节阻抗。所识别的模型能够预测实验反应,因为分别占髋部,膝关节和踝部的平均方差为99%,96%和77%。对受试者刚度的平均分别在34-66nm / rad,0-3.5nm / rad,0-3.5nm / rad和2.5-24nm / rad的三个时间点之间变化,分别用于臀部,膝部和踝关节。阻尼分别在1.9-4.6 nms / rad,0.02-0.14 nms / rad和0.2-2.4 nms / rad的0.02-0.14 nms / rad供应到0.2-2.4nms / rad。发达的洛普勒对不受干扰的行走模式具有可忽略的影响,并且允许在摆动阶段识别臀部,膝关节和踝关节阻抗。
translated by 谷歌翻译
从意外的外部扰动中恢复的能力是双模型运动的基本机动技能。有效的答复包括不仅可以恢复平衡并保持稳定性的能力,而且在平衡恢复物质不可行时,也可以保证安全的方式。对于与双式运动有关的机器人,例如人形机器人和辅助机器人设备,可帮助人类行走,设计能够提供这种稳定性和安全性的控制器可以防止机器人损坏或防止伤害相关的医疗费用。这是一个具有挑战性的任务,因为它涉及用触点产生高维,非线性和致动系统的高动态运动。尽管使用基于模型和优化方法的前进方面,但诸如广泛领域知识的要求,诸如较大的计算时间和有限的动态变化的鲁棒性仍然会使这个打开问题。在本文中,为了解决这些问题,我们开发基于学习的算法,能够为两种不同的机器人合成推送恢复控制政策:人形机器人和有助于双模型运动的辅助机器人设备。我们的工作可以分为两个密切相关的指示:1)学习人形机器人的安全下降和预防策略,2)使用机器人辅助装置学习人类的预防策略。为实现这一目标,我们介绍了一套深度加强学习(DRL)算法,以学习使用这些机器人时提高安全性的控制策略。
translated by 谷歌翻译
虽然在各种应用中广泛使用刚性机器人,但它们在他们可以执行的任务中受到限制,并且在密切的人机交互中可以保持不安全。另一方面,软机器鞋面超越了刚性机器人的能力,例如与工作环境,自由度,自由度,制造成本和与环境安全互动的兼容性。本文研究了纤维增强弹性机壳(释放)作为一种特定类型的软气动致动器的行为,可用于软装饰器。创建动态集参数模型以在各种操作条件下模拟单一免费的运动,并通知控制器的设计。所提出的PID控制器使用旋转角度来控制多项式函数之后的自由到限定的步进输入或轨迹的响应来控制末端执行器的方向。另外,采用有限元分析方法,包括释放的固有非线性材料特性,精确地评估释放的各种参数和配置。该工具还用于确定模块中多个释放的工作空间,这基本上是软机械臂的构建块。
translated by 谷歌翻译
外骨骼和矫形器是可穿戴移动系统,为用户提供机械益处。尽管在过去几十年中有重大改进,但该技术不会完全成熟,以便采用剧烈和非编程任务。为了适应这种功能不全,需要分析和改进该技术的不同方面。许多研究一直在努力解决外骨骼的某些方面,例如,机构设计,意向预测和控制方案。但是,大多数作品都专注于设计或应用的特定元素,而无需提供全面的审查框架。本研究旨在分析和调查为改进和广泛采用这项技术的贡献方面。为了解决此问题,在引入辅助设备和外骨骼后,将从物理人员 - 机器人接口(HRI)的角度来研究主要的设计标准。通过概述不同类别的已知辅助设备的几个例子,将进一步开发该研究。为了建立智能HRI策略并为用户提供直观的控制,将研究认知HRI。将审查这种策略的各种方法,并提出了意图预测的模型。该模型用于从单个电拍摄(EMG)通道输入的栅极相位。建模结果显示出低功耗辅助设备中单通道输入的潜在使用。此外,所提出的模型可以在具有复杂控制策略的设备中提供冗余。
translated by 谷歌翻译
Robotic teleoperation is a key technology for a wide variety of applications. It allows sending robots instead of humans in remote, possibly dangerous locations while still using the human brain with its enormous knowledge and creativity, especially for solving unexpected problems. A main challenge in teleoperation consists of providing enough feedback to the human operator for situation awareness and thus create full immersion, as well as offering the operator suitable control interfaces to achieve efficient and robust task fulfillment. We present a bimanual telemanipulation system consisting of an anthropomorphic avatar robot and an operator station providing force and haptic feedback to the human operator. The avatar arms are controlled in Cartesian space with a direct mapping of the operator movements. The measured forces and torques on the avatar side are haptically displayed to the operator. We developed a predictive avatar model for limit avoidance which runs on the operator side, ensuring low latency. The system was successfully evaluated during the ANA Avatar XPRIZE competition semifinals. In addition, we performed in lab experiments and carried out a small user study with mostly untrained operators.
translated by 谷歌翻译
Legged robots pose one of the greatest challenges in robotics. Dynamic and agile maneuvers of animals cannot be imitated by existing methods that are crafted by humans. A compelling alternative is reinforcement learning, which requires minimal craftsmanship and promotes the natural evolution of a control policy. However, so far, reinforcement learning research for legged robots is mainly limited to simulation, and only few and comparably simple examples have been deployed on real systems. The primary reason is that training with real robots, particularly with dynamically balancing systems, is complicated and expensive. In the present work, we report a new method for training a neural network policy in simulation and transferring it to a state-of-the-art legged system, thereby we leverage fast, automated, and cost-effective data generation schemes. The approach is applied to the ANYmal robot, a sophisticated medium-dog-sized quadrupedal system. Using policies trained in simulation, the quadrupedal machine achieves locomotion skills that go beyond what had been achieved with prior methods: ANYmal is capable of precisely and energy-efficiently following high-level body velocity commands, running faster than ever before, and recovering from falling even in complex configurations.
translated by 谷歌翻译
由于治疗益处和减轻劳动密集型工作的能力,在临床应用中使用康复机器人技术的重要性提高了。但是,他们的实际效用取决于适当的控制算法的部署,这些算法根据每个患者的需求来适应任务辅助的水平。通常,通过临床医生的手动调整来实现所需的个性化,这很麻烦且容易出错。在这项工作中,我们提出了一种新颖的在线学习控制体系结构,能够在运行时个性化控制力量。为此,我们通过以前看不见的预测和更新率来部署基于高斯流程的在线学习。最后,我们在一项实验用户研究中评估了我们的方法,在该研究中,学习控制器被证明可以提供个性化的控制,同时还获得了安全的相互作用力。
translated by 谷歌翻译
在这项研究中,我们研究了中枢神经系统(CNS)如何在个人在虚拟现实(VR)环境中执行复杂的捕捉任务时如何组织姿势控制协同作用。机器人直立的立式培训师(健壮)平台,包括表面肌电图和运动学,用于研究中枢神经系统微型姿势协同作用,具有扰动和辅助的力场。招募了一个没有辅助力的对照组,以阐明力场在扰动后以及VR达到任务期间对运动性能和姿势协同组织的影响。我们发现,辅助力量的应用显着改善了达到和平衡控制。接收辅助力的小组显示出四个姿势控制协同作用,其特征是较高的复杂性(即涉及更多肌肉)。但是,控制受试者显示了八种协同作用,这些协同作用减少了肌肉的数量。总之,辅助力减少了姿势协同的数量,同时增加了肌肉模块组成的复杂性。
translated by 谷歌翻译
在本文中,我们讨论了通过模仿教授双人操作任务的框架。为此,我们提出了一种从人类示范中学习合规和接触良好的机器人行为的系统和算法。提出的系统结合了入学控制和机器学习的见解,以提取控制政策,这些政策可以(a)从时空和空间中恢复并适应各种干扰,同时(b)有效利用与环境的物理接触。我们使用现实世界中的插入任务证明了方法的有效性,该任务涉及操纵对象和插入钉之间的多个同时接触。我们还研究了为这种双人设置收集培训数据的有效方法。为此,我们进行了人类受试者的研究,并分析用户报告的努力和精神需求。我们的实验表明,尽管很难提供,但在遥控演示中可用的其他力/扭矩信息对于阶段估计和任务成功至关重要。最终,力/扭矩数据大大提高了操纵鲁棒性,从而在多点插入任务中获得了90%的成功率。可以在https://bimanualmanipulation.com/上找到代码和视频
translated by 谷歌翻译
机器人辅助的微创手术(RMI)缺乏触觉反馈是在手术过程中安全组织处理的潜在障碍。贝叶斯建模理论表明,与没有经验的外科医生相比,在RMIS期间,具有开放或腹腔镜手术经验的外科医生可以发展为组织刚度的先验。为了测试先前的触觉经验是否导致远程操作的力估计能力提高,将33名参与者分配到三个训练条件之一:手动操纵,用力反馈的远程操作或无力反馈的远程操作,并学会了将硅胶样品张紧到一套力值。然后,他们被要求执行张力任务,以及先前未经触觉的任务,而无需反馈而在远程操作下进行不同的力量值。与远程操作组相比,手动组在训练的力量范围之外的张力任务中具有较高的力误差,但在低力水平下,在触诊任务中显示出更好的速度准确性功能。这表明训练方式的动力学会影响远程操作过程中的力估计能力,如果在与任务相同的动态下形成,则可以访问先前的触觉体验。
translated by 谷歌翻译
促进辅助(AAN)控制旨在通过鼓励患者积极参与促进机器人辅助康复的治疗结果。大多数AAN控制器使用阻抗控制来在目标运动周围创建柔性的力字段,以确保在允许中等运动错误的同时进行跟踪精度。然而,由于控制力场的形状的参数通常根据关于关于对象学习能力的简单假设在线手动调整或在线调整,因此可以限制传统AAN控制器的有效性。在这项工作中,我们提出了一种新颖的自适应AAN控制器,其能够根据每个单独的电动机能力和任务要求自动重塑力场以相位相关的方式重塑力场。该拟议的控制器包括使用路径积分算法的修改策略改进,一种无模型的采样的增强学习方法,该方法实时地学习了特定于主题的阻抗景观,以及嵌入AAN PARADIGM的分层策略参数评估结构通过指定性能驱动的学习目标。通过跑步机培训课程通过具有能够在动力踝足矫形器的协助学习改变的步态模式的跑步机培训课程,通过跑步机培训课程进行实验验证,拟议的控制策略及其促进短期运动适应能力的适应性。
translated by 谷歌翻译
对控制框架的兴趣越来越大,能够将机器人从工业笼子转移到非结构化环境并与人类共存。尽管某些特定应用(例如,医学机器人技术)有了显着改善,但仍然需要一个一般控制框架来改善鲁棒性和运动动力学。被动控制者在这个方向上显示出令人鼓舞的结果。但是,他们通常依靠虚拟能源储罐,只要它们不耗尽能量,就可以保证被动性。在本文中,提出了一个分形吸引子来实施可变的阻抗控制器,该控制器可以保留不依赖能箱的无源性。控制器使用渐近稳定电位场在所需状态周围生成一个分形吸引子,从而使控制器稳健地对离散化和数值集成误差。结果证明它可以在相互作用过程中准确跟踪轨迹和最终效应力。因此,这些属性使控制器非常适合需要在最终效应器上进行鲁棒动态相互作用的应用。
translated by 谷歌翻译
系列弹性执行器(SEA)具有固有的合规性,可为机器人提供安全的扭矩来源,这些源是与各种环境相互作用的机器人,包括人类。这些应用对海体扭矩控制器有很高的要求,扭矩响应以及与其环境的相互作用行为。为了区分现有技术的扭矩控制器,这项工作正在引入统一的理论和实验框架,其基于它们的扭矩传递行为,表观阻抗行为,特别是表观阻抗的钝化性,即它们的相互作用稳定性,也是如此作为对传感器噪声的敏感性。我们比较经典的海上控制方法,如级联PID控制器和全状态反馈控制器,使用干扰观察者,加速反馈和适应规则,具有先进的控制器。仿真和实验证明了稳定的相互作用,高带宽和低噪声水平之间的折衷。基于这些权衡,可以基于与各个环境的所需交互来设计和调整特定于应用程序特定控制器。
translated by 谷歌翻译
在人类机器人的相互作用中,眼球运动在非语言交流中起着重要作用。但是,控制机器人眼的动作表现出与人眼动物系统相似的性能仍然是一个重大挑战。在本文中,我们研究了如何使用电缆驱动的驱动系统来控制人眼的现实模型,该系统模仿了六个眼外肌肉的自由度。仿生设计引入了解决新的挑战,最值得注意的是,需要控制每种肌肉的支撑,以防止运动过程中的紧张感损失,这将导致电缆松弛和缺乏控制。我们构建了一个机器人原型,并开发了一个非线性模拟器和两个控制器。在第一种方法中,我们使用局部衍生技术线性化了非线性模型,并设计了线性 - 季度最佳控制器,以优化计算准确性,能量消耗和运动持续时间的成本函数。第二种方法使用复发性神经网络,该神经网络从系统的样本轨迹中学习非线性系统动力学,以及一个非线性轨迹优化求解器,可最大程度地减少相似的成本函数。我们专注于具有完全不受限制的运动学的快速saccadic眼球运动,以及六根电缆的控制信号的生成,这些电缆同时满足了几个动态优化标准。该模型忠实地模仿了人类扫视观察到的三维旋转运动学和动力学。我们的实验结果表明,尽管两种方法都产生了相似的结果,但非线性方法对于未来改进该模型的方法更加灵活,该模型的计算是线性化模型的位置依赖性偏向和局部衍生物的计算变得特别乏味。
translated by 谷歌翻译
人类可以利用身体互动来教机器人武器。当人类的动力学通过示范引导机器人时,机器人学习了所需的任务。尽管先前的工作重点是机器人学习方式,但对于人类老师来说,了解其机器人正在学习的内容同样重要。视觉显示可以传达此信息;但是,我们假设仅视觉反馈就错过了人与机器人之间的物理联系。在本文中,我们介绍了一类新颖的软触觉显示器,这些显示器包裹在机器人臂上,添加信号而不会影响相互作用。我们首先设计一个气动驱动阵列,该阵列在安装方面保持灵活。然后,我们开发了这种包裹的触觉显示的单一和多维版本,并在心理物理测试和机器人学习过程中探索了人类对渲染信号的看法。我们最终发现,人们以11.4%的韦伯(Weber)分数准确区分单维反馈,并以94.5%的精度确定多维反馈。当物理教授机器人臂时,人类利用单维反馈来提供比视觉反馈更好的演示:我们包装的触觉显示会降低教学时间,同时提高演示质量。这种改进取决于包裹的触觉显示的位置和分布。您可以在此处查看我们的设备和实验的视频:https://youtu.be/ypcmgeqsjdm
translated by 谷歌翻译
本文对人机对象切换的文献进行了调查。切换是一种协作的关节动作,其中代理人,给予者,给予对象给另一代理,接收器。当接收器首先与给予者持有的对象并结束时,当给予者完全将物体释放到接收器时,物理交换开始。然而,重要的认知和物理过程在物理交换之前开始,包括在交换的位置和时间内启动隐含协议。从这个角度来看,我们将审核构成了上述事件界定的两个主要阶段:1)预切换阶段和2)物理交流。我们专注于两位演员(Giver和Receiver)的分析,并报告机器人推动者(机器人到人类切换)和机器人接收器(人到机器人切换)的状态。我们举报了常用于评估互动的全面的定性和定量度量列表。虽然将我们的认知水平(例如,预测,感知,运动规划,学习)和物理水平(例如,运动,抓握,抓取释放)的审查重点,但我们简要讨论了安全的概念,社会背景,和人体工程学。我们将在人对人物助手中显示的行为与机器人助手的最新进行比较,并确定机器人助剂的主要改善领域,以达到与人类相互作用相当的性能。最后,我们提出了一种应使用的最小度量标准,以便在方法之间进行公平比较。
translated by 谷歌翻译
Policy search methods can allow robots to learn control policies for a wide range of tasks, but practical applications of policy search often require hand-engineered components for perception, state estimation, and low-level control. In this paper, we aim to answer the following question: does training the perception and control systems jointly end-toend provide better performance than training each component separately? To this end, we develop a method that can be used to learn policies that map raw image observations directly to torques at the robot's motors. The policies are represented by deep convolutional neural networks (CNNs) with 92,000 parameters, and are trained using a guided policy search method, which transforms policy search into supervised learning, with supervision provided by a simple trajectory-centric reinforcement learning method. We evaluate our method on a range of real-world manipulation tasks that require close coordination between vision and control, such as screwing a cap onto a bottle, and present simulated comparisons to a range of prior policy search methods.
translated by 谷歌翻译