深度学习与高分辨率的触觉传感相结合可能导致高度强大的灵巧机器人。但是,由于专业设备和专业知识,进度很慢。数字触觉传感器可使用Gelsight型传感器提供低成本的高分辨率触摸。在这里,我们将数字定制为基于柔软仿生光学触觉传感器的Tactip家族具有3D打印的传感表面。 Digit-Tactip(Digitac)可以在这些不同的触觉传感器类型之间进行直接比较。为了进行此比较,我们引入了一个触觉机器人系统,该机器人系统包括桌面臂,坐骑和3D打印的测试对象。我们将触觉伺服器控制与Posenet深度学习模型一起比较数字,Digitac和Tactip,以在3D形状上进行边缘和表面跟随。这三个传感器在姿势预测上的性能类似,但是它们的构造导致伺服控制的性能不同,为研究人员选择或创新触觉传感器提供了指导。复制此研究的所有硬件和软件将公开发布。
translated by 谷歌翻译
高分辨率光触觉传感器越来越多地用于机器人学习环境中,因为它们能够捕获与试剂环境相互作用直接相关的大量数据。但是,由于触觉机器人平台的高成本,专业的仿真软件以及在不同传感器之间缺乏通用性的模拟方法,因此在该领域的研究障碍很高。在这封信中,我们将触觉健身房的模拟器扩展到两种最受欢迎​​的类型类型的三个新的光学触觉传感器(Tactip,Digit和Digitac),分别是Gelsight Style(基于图像遮蔽)和Tactip Style(基于标记)。我们证明,尽管实际触觉图像之间存在显着差异,但可以与这三个不同的传感器一起使用单个SIM到实现的方法,以实现强大的现实性能。此外,我们通过将其调整为廉价的4道机器人组来降低对拟议任务的进入障碍,从而进一步使该基准的传播。我们在三个需要触摸感的身体相互交互的任务上验证了扩展环境:对象推动,边缘跟随和表面跟随。我们实验验证的结果突出了这些传感器之间的一些差异,这可能有助于未来的研究人员选择并自定义触觉传感器的物理特征,以进行不同的操纵场景。
translated by 谷歌翻译
触觉感应是执行灵巧操纵任务的机器人的基本能力。虽然相机,LIDAR和其他远程传感器可以在全球和立即评估场景,但触觉传感器可以减少它们的测量不确定性,并在往复对象和机器人之间获得局部物理交互的信息,这通常不能通过遥感。触觉传感器可以分为两个主要类别:电子触觉皮肤和基于相机的光学触觉传感器。前者是薄薄的并且可以安装在不同的身体部位上,而后者呈现更棱柱形状并具有更高的感测分辨率,具有良好的优势,可以用作机器人手指或指尖。这种光学触觉传感器之一是我们的Geltip传感器,其成形为手指,并且可以在其表面的任何位置感接触。这样,Geltip传感器能够从所有方向上检测触点,如人的手指。为了捕获这些触点,它使用安装在其基部的相机来跟踪覆盖其空心,刚性和透明体的不透明弹性体的变形。由于这种设计,配备盖施电流传感器的夹具能够同时监测其掌握内外的触点。使用该传感器进行的实验表明了触点是如何定位的,更重要的是,利用杂波中的Dexterous操纵任务中的全面触摸感测的优点,甚至可能是必要的,其中触点可能发生在手指的任何位置。可以在HTTPS://Danfergo.github.io/geltip/中找到制造Geltip传感器的所有材料
translated by 谷歌翻译
视觉的触觉传感器由于经济实惠的高分辨率摄像机和成功的计算机视觉技术而被出现为机器人触摸的有希望的方法。但是,它们的物理设计和他们提供的信息尚不符合真实应用的要求。我们提供了一种名为Insight的强大,柔软,低成本,视觉拇指大小的3D触觉传感器:它不断在其整个圆锥形感测表面上提供定向力分布图。围绕内部单眼相机构造,传感器仅在刚性框架上仅成型一层弹性体,以保证灵敏度,鲁棒性和软接触。此外,Insight是第一个使用准直器将光度立体声和结构光混合的系统来检测其易于更换柔性外壳的3D变形。通过将图像映射到3D接触力的空间分布(正常和剪切)的深神经网络推断力信息。洞察力在0.4毫米的总空间分辨率,力量幅度精度约为0.03 n,并且对于具有不同接触面积的多个不同触点,在0.03-2 n的范围内的5度大约5度的力方向精度。呈现的硬件和软件设计概念可以转移到各种机器人部件。
translated by 谷歌翻译
仿真最近已成为深度加强学习,以安全有效地从视觉和预防性投入获取一般和复杂的控制政策的关键。尽管它与环境互动直接关系,但通常认为触觉信息通常不会被认为。在这项工作中,我们展示了一套针对触觉机器人和加强学习量身定制的模拟环境。提供了一种简单且快速的模拟光学触觉传感器的方法,其中高分辨率接触几何形状表示为深度图像。近端策略优化(PPO)用于学习所有考虑任务的成功策略。数据驱动方法能够将实际触觉传感器的当前状态转换为对应的模拟深度图像。此策略在物理机器人上实时控制循环中实现,以演示零拍摄的SIM-TO-REAL策略转移,以触摸感的几个物理交互式任务。
translated by 谷歌翻译
增加机器人触觉感应的性能使多功能,手动操纵能够。视觉的触觉传感器已被广泛使用,因为富有的触觉反馈已被证明与操作任务的性能增加相关。具有高分辨率的现有触觉传感器解决方案具有包括低精度,昂贵的组件或缺乏可扩展性的限制。在本文中,提出了具有用于3D传感器表面的高分辨率表面变形建模的廉价,可伸缩和紧凑的触觉传感器。通过测量来自Fisheye相机的图像,表明传感器可以通过使用深卷积神经网络成功地估计实时(1.8ms)的表面变形。该传感器在其设计和传感能力中表示通过高分辨率形状重建实现更好的对象的携手局部定位,分类和表面估计的重要一步。
translated by 谷歌翻译
可以测量接触物体的3D几何形状的基于视觉的触觉传感器对于机器人执行灵巧的操纵任务至关重要。但是,现有的传感器通常很复杂,可以制造和细腻以扩展。在这项工作中,我们从小地利用了半透明弹性体的反射特性来设计一种名为DTACT的强大,低成本且易于制作的触觉传感器。DTACT从捕获的触觉图像中所示的黑暗中精确测量了高分辨率3D几何形状,仅具有单个图像进行校准。与以前的传感器相反,在各种照明条件下,DTACT是可靠的。然后,我们构建了具有非平面接触表面的DTACT原型,并以最少的额外努力和成本。最后,我们执行了两项智能机器人任务,包括使用DTACT进行姿势估计和对象识别,其中DTACT在应用中显示出巨大的潜力。
translated by 谷歌翻译
空中触觉创造了一种新的反馈方式,以使人们能够在空中感觉到触觉。超声波阵列聚焦在空间中的声音辐射压力,以引起由此产生的皮肤偏转的触觉感觉。在这项工作中,我们提出了一个低成本的触觉机器人,以测试空中触觉。通过将桌面机器人组与3D打印的仿生触觉传感器相结合,我们开发了一个可以感知,映射和可视化超声传感器阵列产生的空气触觉感觉的系统。我们通过对各种空气中的触觉刺激进行测试,包括未经调节和调节的焦点来评估触觉机器人。我们将刺激的映射与用于测试空气中触觉的另一种方法的映射:激光多普勒振动法,突出了触觉机器人的优势,包括较低的成本,轻巧的表格因子和易用性。总体而言,这些发现表明我们的方法具有感知空气中触觉的多重好处,并为扩展测试以更好地模仿人触觉感知开辟了新的可能性。
translated by 谷歌翻译
尽管已显示触觉皮肤可用于检测机器人臂及其环境之间的碰撞,但并未广泛用于改善机器人抓握和手持操作。我们提出了一种新型的传感器设计,用于覆盖现有的多指机器人手。我们在台式实验中使用织物和抗静态泡沫底物分析了四种不同的压电材料的性能。我们发现,尽管压电泡沫被设计为包装材料,而不是用作传感底物,但它的性能与专门为此目的设计的织物相当。尽管这些结果证明了压电泡沫对触觉传感应用的潜力,但它们并未完全表征这些传感器在机器人操作中使用的功效。因此,我们使用低密度泡沫底物来开发可扩展的触觉皮肤,该皮肤可以连接到机器人手的手掌上。我们使用该传感器展示了几项机器人操纵任务,以显示其可靠地检测和本地化接触的能力,并在掌握和运输任务期间分析接触模式。我们的项目网站提供了有关传感器开发和分析中使用的所有材料,软件和数据的详细信息:https://sites.google.com/gcloud.utah.edu/piezoresistive-tactile-sensing/。
translated by 谷歌翻译
仿真广泛用于系统验证和大规模数据收集的机器人。然而,模拟传感器包括触觉传感器,这是一个长期存在的挑战。在本文中,我们提出了针对视觉触觉传感器的税法,逼真和高速仿真模型,Gelsight。凝胶传感器使用一块软弹性体作为接触的介质,并嵌入光学结构以捕获弹性体的变形,其在接触表面处施加的几何形状和力。我们提出了一种基于示例性的模拟eGelight方法:我们使用多项式查找表模拟对变形的光学响应。此表将变形几何形状映射到由嵌入式摄像机采样的像素强度。为了模拟由弹性体的表面拉伸引起的表面标记的运动,我们应用线性弹性变形理论和叠加原理。仿真模型校准,具有来自真实传感器的少于100个数据点。基于示例的方法使模型能够轻松地迁移到其他裸体传感器或其变化。据我们所知,我们的仿真框架是第一个包含从弹性体变形的标记运动场仿真以及光学仿真,创造了全面和计算的触觉模拟框架。实验表明,与现有工作相比,我们的光学仿真具有最低的像素 - 方面强度误差,并可以在线计算在线计算。我们的代码和补充材料在https://github.com/cmurobotouch/taxim开放。
translated by 谷歌翻译
触摸感在使人类能够理解和与周围环境互动方面发挥着关键作用。对于机器人,触觉感应也是不可替代的。在与物体交互时,触觉传感器为机器人提供了理解物体的有用信息,例如分布式压力,温度,振动和纹理。在机器人抓住期间,视力通常由其最终效应器封闭,而触觉感应可以测量视觉无法访问的区域。在过去的几十年中,已经为机器人开发了许多触觉传感器,并用于不同的机器人任务。在本章中,我们专注于使用触觉对机器人抓握的触觉,并研究近期对物质性质的触觉趋势。我们首先讨论了术语,即形状,姿势和材料特性对三个重要的物体特性的触觉感知。然后,我们通过触觉感应审查抓握稳定性预测的最新发展。在这些作品中,我们确定了在机器人抓握中协调视觉和触觉感应的要求。为了证明使用触觉传感来提高视觉感知,介绍了我们最近的抗议重建触觉触觉感知的发展。在所提出的框架中,首先利用相机视觉的大型接收领域以便快速搜索含有裂缝的候选区域,然后使用高分辨率光学触觉传感器来检查这些候选区域并重建精制的裂缝形状。实验表明,我们所提出的方法可以实现0.82mm至0.24mm的平均距离误差的显着降低,以便重建。最后,我们在讨论了对机器人任务中施加触觉感应的公开问题和未来方向的讨论。
translated by 谷歌翻译
大物体的操纵和安全地在人类附近进行安全操作的能力是通用国内机器人助手的关键能力。我们介绍了一种柔软,触觉的人形的人形机器人的设计,并展示了用于处理大物体的全身丰富的接触操作策略。我们展示了我们的硬件设计理念,用于使用软触觉传感模块,包括:(i)低成本,抗缝,接触压力定位的武器, (ii)基于TRI软气泡传感器的爪子,用于最终效应器,(III)柔顺的力/几何传感器,用于粗糙几何感测表面/胸部。我们利用这些模块的机械智能和触觉感应,为全身抓握控制进行开发和展示运动原语。我们评估硬件在实现各种大型国内物体上实现不同优势的掌握。我们的结果表明,利用富含接触的操纵策略的柔软度和触觉感应的重要性,以及与世界的全身力量控制的互动前进的道路。
translated by 谷歌翻译
Robots have been brought to work close to humans in many scenarios. For coexistence and collaboration, robots should be safe and pleasant for humans to interact with. To this end, the robots could be both physically soft with multimodal sensing/perception, so that the robots could have better awareness of the surrounding environment, as well as to respond properly to humans' action/intention. This paper introduces a novel soft robotic link, named ProTac, that possesses multiple sensing modes: tactile and proximity sensing, based on computer vision and a functional material. These modalities come from a layered structure of a soft transparent silicon skin, a polymer dispersed liquid crystal (PDLC) film, and reflective markers. Here, the PDLC film can switch actively between the opaque and the transparent state, from which the tactile sensing and proximity sensing can be obtained by using cameras solely built inside the ProTac link. In this paper, inference algorithms for tactile proximity perception are introduced. Evaluation results of two sensing modalities demonstrated that, with a simple activation strategy, ProTac link could effectively perceive useful information from both approaching and in-contact obstacles. The proposed sensing device is expected to bring in ultimate solutions for design of robots with softness, whole-body and multimodal sensing, and safety control strategies.
translated by 谷歌翻译
我们引入了一个球形指尖传感器进行动态操作。它基于气压压力和飞行时间接近传感器,并且是低延迟,紧凑且身体健壮的。传感器使用训练有素的神经网络根据压力传感器的数据来估计接触位置和三轴接触力,这些数据嵌入了传感器的聚氨酯橡胶范围内。飞行器传感器朝三个不同的外向方向面对,并且一个集成的微控制器样品以200 Hz的速度每个单个传感器。为了量化系统潜伏期对动态操作性能的影响,我们开发和分析了一个称为碰撞脉冲比率的度量,并表征了我们新传感器的端到端潜伏期。我们还向传感器提出了实验演示,包括测量接触过渡,进行粗大映射,与移动物体保持接触力以及避免碰撞的反应。
translated by 谷歌翻译
在各种地形上进行运动的能力对于腿部机器人至关重要。但是,机器人必须更好地了解其在不同地形上进行强大运动的表面。动物和人类能够在脚上的触觉感觉的帮助下识别表面。虽然,腿部机器人的脚触觉感觉并没有得到太多探索。本文介绍了针对触觉脚(TSF)的新型四足机器人Dogtouch的研究。 TSF允许使用触觉传感器和卷积神经网络(CNN)识别不同的表面纹理。实验结果表明,我们训练有素的基于CNN的模型的足够验证精度为74.37 \%,对线模式的90 \%\%的识别最高。将来,我们计划通过呈现各种模式深度的表面样本并应用高级深度学习和浅层学习模型来改善预测模型。此外,我们提出了一种新颖的方法,用于导航四倍和腿部机器人。我们可以安排触觉铺路纹理表面(类似于盲人或视障人士)。因此,只需识别将指示直路,左或右转弯,行人穿越,道路等的特定触觉图案,就可以在未知环境中进行运动,无论光线如何,都可以允许强大的导航。配备了视觉和触觉感知系统的未来四足机器人将能够在非结构化的室内和室外环境中安全,智能地导航和交互。
translated by 谷歌翻译
我们研究了如何将高分辨率触觉传感器与视觉和深度传感结合使用,以改善掌握稳定性预测。在模拟高分辨率触觉传感的最新进展,尤其是触觉模拟器,使我们能够评估如何结合感应方式训练神经网络。借助训练大型神经网络所需的大量数据,机器人模拟器提供了一种快速自动化数据收集过程的方法。我们通过消融研究扩展现有工作,并增加了从YCB基准组中获取的一组对象。我们的结果表明,尽管视觉,深度和触觉感测的组合为已知对象提供了最佳预测结果,但该网络未能推广到未知对象。我们的工作还解决了触觉模拟中机器人抓握的现有问题以及如何克服它们。
translated by 谷歌翻译
The precise control of soft and continuum robots requires knowledge of their shape. The shape of these robots has, in contrast to classical rigid robots, infinite degrees of freedom. To partially reconstruct the shape, proprioceptive techniques use built-in sensors resulting in inaccurate results and increased fabrication complexity. Exteroceptive methods so far rely on placing reflective markers on all tracked components and triangulating their position using multiple motion-tracking cameras. Tracking systems are expensive and infeasible for deformable robots interacting with the environment due to marker occlusion and damage. Here, we present a regression approach for 3D shape estimation using a convolutional neural network. The proposed approach takes advantage of data-driven supervised learning and is capable of real-time marker-less shape estimation during inference. Two images of a robotic system are taken simultaneously at 25 Hz from two different perspectives, and are fed to the network, which returns for each pair the parameterized shape. The proposed approach outperforms marker-less state-of-the-art methods by a maximum of 4.4\% in estimation accuracy while at the same time being more robust and requiring no prior knowledge of the shape. The approach can be easily implemented due to only requiring two color cameras without depth and not needing an explicit calibration of the extrinsic parameters. Evaluations on two types of soft robotic arms and a soft robotic fish demonstrate our method's accuracy and versatility on highly deformable systems in real-time. The robust performance of the approach against different scene modifications (camera alignment and brightness) suggests its generalizability to a wider range of experimental setups, which will benefit downstream tasks such as robotic grasping and manipulation.
translated by 谷歌翻译
人类广泛利用视觉和触摸作为互补的感官,视觉提供有关场景的全球信息,并在操纵过程中触摸当地信息而不会受到阻塞。在这项工作中,我们提出了一个新颖的框架,用于以一种自我监督的方式学习多任务视觉执行表示。我们设计了一种机制,该机制使机器人能够自主收集空间对齐的视觉和触觉数据,这是下游任务的关键属性。然后,我们使用交叉模式对比损失训练视觉和触觉编码器将这些配对的感觉输入嵌入共享潜在空间中。对学习的表示形式进行评估,而无需对5个感知和控制任务进行微调,涉及可变形表面:触觉分类,接触定位,异常检测(例如,手术幻影肿瘤触诊),触觉搜索,例如,视觉疑问(例如,在遮挡的情况下,都可以从视觉询问中进行触觉搜索),以及沿布边缘和电缆的触觉伺服。博学的表示形式在毛巾功能分类上达到了80%的成功率,手术材料中异常检测的平均成功率为73%,视觉引导触觉搜索的平均成功率和87.8%的平均伺服距离沿电缆和服装的平均伺服距离为87.8%。接缝。这些结果表明,学习的表示形式的灵活性,并朝着对机器人控制的任务不合时宜的视觉表达表示迈出了一步。
translated by 谷歌翻译
人们经常通过双手施加压力来与周围环境互动。虽然可以通过在手和环境之间放置压力传感器来测量手动压力,但这样做可以改变接触力学,干扰人类触觉感知,需要昂贵的传感器,并且对大型环境的扩展很差。我们探索使用常规的RGB摄像头推断手动压力的可能性,从而使机器对无爆炸的手和表面的手动压力感知。中心洞察力是,通过手的施加压力会导致内容丰富的外观变化。手共有生物力学特性,从而产生相似的可观察现象,例如软组织变形,血液分布,手姿势和铸造阴影。我们收集了36位参与者的视频,这些参与者具有不同的肤色,向仪器的平面表面施加压力。然后,我们训练了一个深层模型(压力visionnet),以从单个RGB图像中推断出压力图像。我们的模型会在培训数据外降低给参与者的压力,并且表现优于基准。我们还表明,我们的模型的输出取决于手的外观,并在接触区域附近投射阴影。总体而言,我们的结果表明,可以使用以前未观察到的人手的出现来准确推断施加压力。数据,代码和模型可在线提供。
translated by 谷歌翻译
Robotic tactile sensing provides a method of recognizing objects and their properties where vision fails. Prior work on tactile perception in robotic manipulation has frequently focused on exploratory procedures (EPs). However, the also-human-inspired technique of in-hand-manipulation can glean rich data in a fraction of the time of EPs. We propose a simple 3-DOF robotic hand design, optimized for object rolling tasks via a variable-width palm and associated control system. This system dynamically adjusts the distance between the finger bases in response to object behavior. Compared to fixed finger bases, this technique significantly increases the area of the object that is exposed to finger-mounted tactile arrays during a single rolling motion (an increase of over 60% was observed for a cylinder with a 30-millimeter diameter). In addition, this paper presents a feature extraction algorithm for the collected spatiotemporal dataset, which focuses on object corner identification, analysis, and compact representation. This technique drastically reduces the dimensionality of each data sample from 10 x 1500 time series data to 80 features, which was further reduced by Principal Component Analysis (PCA) to 22 components. An ensemble subspace k-nearest neighbors (KNN) classification model was trained with 90 observations on rolling three different geometric objects, resulting in a three-fold cross-validation accuracy of 95.6% for object shape recognition.
translated by 谷歌翻译