视觉模仿学习为机器人系统提供了有效,直观的解决方案,以获得新颖的操纵技巧。但是,仅凭视觉输入就可以同时学习几何任务约束,并控制政策仍然是一个具有挑战性的问题。在本文中,我们提出了一种基于关键点的视觉模仿(K-VIL)的方法,该方法会自动从少数人类演示视频中提取稀疏,以对象独立的任务表示。任务表示形式由主要歧管,其关联的本地框架以及任务执行所需的运动原始框架上的基于关键点的几何约束以及移动原始构成。我们的方法能够从单个演示视频中提取此类任务表示,并在新演示可用时会逐步更新它们。为了使用新颖的场景中学习的优先几何约束来重现操纵技能,我们介绍了一种新颖的基于Kepoint的入学控制器。我们在几个现实世界中评估了我们的方法,展示了其处理混乱的场景,新的对象的新实例以及大对象姿势和形状变化的能力,以及其一声效率和稳健性模仿学习设置。视频和源代码可在https://sites.google.com/view/k-vil上找到。
translated by 谷歌翻译