识别技术允许机器人进行适当的规划和控制策略来操纵各种对象。通过组合多个感知,例如视觉和触觉,对象识别更可靠。每个物体材料的一个显着特征是其热性能,并且分类可以利用热传递,类似于人类热敏。基于热基识别的优点是通过简单地使用微小和廉价的传感器捕获温度变化来实时获得接触表面信息的优点。然而,机器人表面和接触物之间的热传递受初始温度和环境条件的强烈影响。当其温度与机器人格拉伯提示相同时,不能识别给定的物体的材料。我们使用活性温控机器人夹具提出了一种材料分类系统,以诱导热流。随后,我们的系统可以独立地从环境温度识别材料。机器人夹持器表面可以调节到与触摸物体表面不同的任何温度。我们通过将温度控制系统与学术围巾机器人集成,根据使用从抓取目标物体获得的温度数据对其进行分类来进行一些实验。
translated by 谷歌翻译
在本文中,我们着重于分析使用大型材料数据库材料识别的触觉传感的热模式。许多因素会影响热识别性能,包括传感器噪声,传感器和物体的初始温度,材料的热积液以及接触时间。为了分析这些因素对热识别的影响,我们使用了一个半无限固体的热模型来模拟来自CES Edupack Level-1数据库中所有材料的热传输数据。我们使用支持矢量机(SVM)来预测2346个材料对的二元材料识别的F1分数。我们还使用配备了热传感器的真实机器人收集了数据,并分析了其在66个现实世界对的材料识别性能。此外,我们分析了对模型进行模拟数据培训并在实体机器人数据上进行测试时的性能。我们的模型预测了模拟数据的0.980 F1分数的材料识别性能,现实世界中具有恒定初始传感器温度的现实世界数据的0.994 F1得分,现实世界数据的0.966 F1得分具有不同的初始传感器温度,并且0.815 SIM到运行转移的F1分数。最后,我们根据从这些结果中获得的见解提供了一些有关传感器设计和参数选择的准则。我们发布了模拟和实体机器人数据集,以供机器人社区进一步使用。
translated by 谷歌翻译
Robotic hands with soft surfaces can perform stable grasping, but the high friction of the soft surfaces makes it difficult to release objects, or to perform operations that require sliding. To solve this issue, we previously developed a contact area variable surface (CAVS), whose friction changed according to the load. However, only our fundamental results were previously presented, with detailed analyses not provided. In this study, we first investigated the CAVS friction anisotropy, and demonstrated that the longitudinal direction exhibited a larger ratio of friction change. Next, we proposed a sensible CAVS, capable of providing a variable-friction mechanism, and tested its sensing and control systems in operations requiring switching between sliding and stable-grasping modes. Friction sensing was performed using an embedded camera, and we developed a gripper using the sensible CAVS, considering the CAVS friction anisotropy. In CAVS, the low-friction mode corresponds to a small grasping force, while the high-friction mode corresponds to a greater grasping force. Therefore, by controlling only the friction mode, the gripper mode can be set to either the sliding or stable-grasping mode. Based on this feature, a methodology for controlling the contact mode was constructed. We demonstrated a manipulation involving sliding and stable grasping, and thus verified the efficacy of the developed sensible CAVS.
translated by 谷歌翻译
本文介绍了镜子和透明对象的正常估计方法,这很难用相机识别。为了产生漫反射表面,我们建议将水蒸气喷射到透明或镜面上。在所提出的方法中,我们将配备在机器人臂的尖端上的超声波加湿器移动,以将喷射的水蒸汽施加到目标物体的平面上,以形成交叉形雾区域。漫反射表面部分地产生为迷雾区域,允许相机检测目标对象的表面。调整夹持器安装相机的观点,使得提取的雾区域看起来是图像中最大的,最后估计目标物体表面的平面法线。我们进行了正常的估计实验,以评估所提出的方法的有效性。镜子和透明玻璃的方位角估计的RMSE分别为约4.2和5.8度。因此,我们的机器人实验表明,我们的机器人刮水器可以执行用于清洁透明窗口作为人类的接触力调节的擦拭运动。
translated by 谷歌翻译
机器人系统的远程操作用于精确而精致的物体抓握需要高保真的触觉反馈,以获取有关抓握的全面实时信息。在这种情况下,最常见的方法是使用动力学反馈。但是,单个接触点信息不足以检测软件的动态变化形状。本文提出了一个新型的远程触发系统,该系统可为用户的手提供动感和皮肤刺激,以通过灵敏地操纵可变形物体(即移液器)来实现准确的液体分配。实验结果表明,为用户提供多模式触觉反馈的建议方法大大提高了用远程移液器的剂量质量。与纯视觉反馈相比,当用户用多模式触觉界面与视觉反馈混合使用多模式触觉接口时,相对给药误差减少了66 \%,任务执行时间减少了18 \%。在CoVID-19,化学实验,有机材料和伸缩性的抗体测试期间,可以在精致的给药程序中实施该提出的技术。
translated by 谷歌翻译
机器人从能够根据其材料属性进行对象进行分类或操纵对象而受益。这种能力可通过适当的抓握姿势和力选择来确保对复杂物体进行精细操纵。先前的工作集中在触觉或视觉处理上,以确定掌握时间的材料类型。在这项工作中,我们介绍了一种新型的平行机器人抓地力设计,以及一种从握把手指内收集光谱读数和视觉图像的方法。我们训练非线性支持向量机(SVM),该机器可以通过递归估计将要抓住的物体的材料分类,并且随着从指尖到物体的距离降低的距离,置信度越来越高。为了验证硬件设计和分类方法,我们从16种真实和假水果品种(由聚苯乙烯/塑料组成)中收集样品,从而导致一个包含光谱曲线,场景图像和高分辨率纹理图像的数据集,因为对象被掌握,提起并释放。我们的建模方法证明了在32类决策问题中对对象进行分类时的准确性为96.4%。这比最先进的计算机视觉算法的状态在区分视觉上相似的材料方面提高了29.4%。与先前的工作相反,我们的递归估计模型解释了频谱信号强度的增加,并允许随着抓手接近对象做出决策。我们得出的结论是,光谱法是使机器人不仅能够对握住的对象进行分类,还可以理解其潜在的材料组成。
translated by 谷歌翻译
The accurate detection and grasping of transparent objects are challenging but of significance to robots. Here, a visual-tactile fusion framework for transparent object grasping under complex backgrounds and variant light conditions is proposed, including the grasping position detection, tactile calibration, and visual-tactile fusion based classification. First, a multi-scene synthetic grasping dataset generation method with a Gaussian distribution based data annotation is proposed. Besides, a novel grasping network named TGCNN is proposed for grasping position detection, showing good results in both synthetic and real scenes. In tactile calibration, inspired by human grasping, a fully convolutional network based tactile feature extraction method and a central location based adaptive grasping strategy are designed, improving the success rate by 36.7% compared to direct grasping. Furthermore, a visual-tactile fusion method is proposed for transparent objects classification, which improves the classification accuracy by 34%. The proposed framework synergizes the advantages of vision and touch, and greatly improves the grasping efficiency of transparent objects.
translated by 谷歌翻译
本文的目的是描述一种在实时反馈中检测滑动和接触力的方法。在这种新颖的方法中,戴维斯相机由于其快速处理速度和高分辨率而被用作视觉触觉传感器。在具有不同形状,尺寸,重量和材料的四个物体上进行两百实验,以比较Baxter机器人夹持器的精度和响应以避免滑动。通过使用力敏感电阻(FSR402)验证了先进的方法。使用Davis Camera捕获的事件通过特定算法处理,以向允许其检测滑动的Baxter Robot提供反馈。
translated by 谷歌翻译
我们提出了一个深度的视觉效果模型,以实时估算可变形容器内部的液体,以一种本体感受的方式融合了两种感官方式,即RGB摄像机的原始视觉输入和我们特定触觉传感器的触觉提示,额外的传感器校准。机器人系统是根据估计模型实时控制和调整的。我们作品的主要贡献和新颖性列出如下:1)通过开发具有多模式卷积网络的端到端预测模型来探索液体体积估算的一种本体感受方式,该模型在高精度上获得了高度的精度,该模型在周围的错误中获得了错误实验验证中的2 mL。 2)提出了一个多任务学习体系结构,可全面考虑分类和回归任务的损失,并相对评估收集的数据和实际机器人平台上每个变体的性能。 3)利用本体感受的机器人系统准确地服务和控制所需的液体,该液体连续地实时流入可变形容器。 4)根据实时液体体积预测,自适应调整抓地力计划,以实现更稳定的抓握和操作。
translated by 谷歌翻译
触摸感在使人类能够理解和与周围环境互动方面发挥着关键作用。对于机器人,触觉感应也是不可替代的。在与物体交互时,触觉传感器为机器人提供了理解物体的有用信息,例如分布式压力,温度,振动和纹理。在机器人抓住期间,视力通常由其最终效应器封闭,而触觉感应可以测量视觉无法访问的区域。在过去的几十年中,已经为机器人开发了许多触觉传感器,并用于不同的机器人任务。在本章中,我们专注于使用触觉对机器人抓握的触觉,并研究近期对物质性质的触觉趋势。我们首先讨论了术语,即形状,姿势和材料特性对三个重要的物体特性的触觉感知。然后,我们通过触觉感应审查抓握稳定性预测的最新发展。在这些作品中,我们确定了在机器人抓握中协调视觉和触觉感应的要求。为了证明使用触觉传感来提高视觉感知,介绍了我们最近的抗议重建触觉触觉感知的发展。在所提出的框架中,首先利用相机视觉的大型接收领域以便快速搜索含有裂缝的候选区域,然后使用高分辨率光学触觉传感器来检查这些候选区域并重建精制的裂缝形状。实验表明,我们所提出的方法可以实现0.82mm至0.24mm的平均距离误差的显着降低,以便重建。最后,我们在讨论了对机器人任务中施加触觉感应的公开问题和未来方向的讨论。
translated by 谷歌翻译
预计机器人将掌握形状,重量或材料类型各不相同的广泛物体。因此,为机器人提供类似于人类的触觉功能对于涉及人与人机或机器人与机器人相互作用的应用至关重要,尤其是在那些期望机器人掌握和操纵以前未遇到的复杂物体的情况下。成功的对象掌握和操纵的关键方面是使用配备多个高性能传感器的高质量指尖,在特定的接触表面上适当分布。在本文中,我们介绍了使用两种不同类型的市售机器人指尖(Biotac和wts-ft)的使用的详细分析,每个机器人指尖(Biotac和wts-ft)配备了分布在指尖的接触表面上的多个传感器。我们进一步证明,由于指尖的高性能,不需要一种复杂的自适应抓握算法来抓住日常物体。我们得出的结论是,只要相关的指尖表现出较高的灵敏度,基于比例控制器的简单算法就足够了。在量化的评估中,我们还证明,部分由于传感器的分布,基于BioTAC的指尖的性能优于WTS-FT设备,可以使负载升高至850G,并且简单的比例控制器可以适应该载荷即使对象面临重大的外部振动挑战,也要掌握。
translated by 谷歌翻译
与传统的刚性机器人相比,由于合规性,安全性和低成本,软机器人由于其优点而引起了越来越多的关注。作为软机器人的重要组成部分,软机器人夹具还显示出其优越的同时抓住具有不规则形状的物体。已经进行了最近的研究,以通过调整可变有效长度(VEL)来改善其抓握性能。然而,通过多室设计或可调刚度形状记忆材料实现的Vel需要复杂的气动电路设计或耗时的相变过程。这项工作提出了一种由3D印刷灯丝,忍者克朗的折叠式软机器人执行器。它是通过高速模型进行实验测试和表示的。进行数学和有限元建模,以研究所提出的软致动器的弯曲行为。此外,提出了一种拮抗约束机制来实现VEL,并且实验表明实现了更好的符合性。最后,设计了一种双模夹具,以展示Vel对抓取性能的进步。
translated by 谷歌翻译
Grasping是实际应用中大多数机器人的重要能力。软机器人夹具被认为是机器人抓握的关键部分,并在对象几何形状方差方差的高度和稳健性方面引起了相当大的关注;然而,它们仍然受到相应的传感能力和致动机制的限制。我们提出了一种新型软夹具,看起来像碎碎的碎碎片,其具有综合模具技术制造的柔顺的双稳态机构,纯粹机械地实现感测和致动。特别地,所提出的夹持器中的卡通双稳态结构允许我们降低机构的复杂性,控制,感测设计,因为抓握和感测行为是完全被动的。一旦夹持器的触发位置触及物体并施加足够的力,抓握行为就会自动激励。为了用各种型材抓住物体,所提出的粮食软夹具(GSG)设计为能够包封,夹紧和持续爪。夹具由腔掌,棕榈帽和三个手指组成。首先,分析夹具的设计。然后,在构造理论模型之后,进行有限元(FE)仿真以验证构建的模型。最后,进行了一系列掌握实验,以评估所提出的夹持器对抓握和感测的卡通行为。实验结果说明了所提出的夹持器可以操纵各种柔软和刚性物体,并且即使它承担外部干扰,也可以保持稳定。
translated by 谷歌翻译
Vision-based tactile sensors have gained extensive attention in the robotics community. The sensors are highly expected to be capable of extracting contact information i.e. haptic information during in-hand manipulation. This nature of tactile sensors makes them a perfect match for haptic feedback applications. In this paper, we propose a contact force estimation method using the vision-based tactile sensor DIGIT, and apply it to a position-force teleoperation architecture for force feedback. The force estimation is done by building a depth map for DIGIT gel surface deformation measurement and applying a regression algorithm on estimated depth data and ground truth force data to get the depth-force relationship. The experiment is performed by constructing a grasping force feedback system with a haptic device as a leader robot and a parallel robot gripper as a follower robot, where the DIGIT sensor is attached to the tip of the robot gripper to estimate the contact force. The preliminary results show the capability of using the low-cost vision-based sensor for force feedback applications.
translated by 谷歌翻译
人类的物体感知能力令人印象深刻,当试图开发具有类似机器人的解决方案时,这变得更加明显。从人类如何将视觉和触觉用于对象感知和相关任务的灵感中,本文总结了机器人应用的多模式对象感知的当前状态。它涵盖了生物学灵感,传感器技术,数据集以及用于对象识别和掌握的感觉数据处理的各个方面。首先,概述了多模式对象感知的生物学基础。然后讨论了传感技术和数据收集策略。接下来,介绍了主要计算方面的介绍,突出显示了每个主要应用领域的一些代表性文章,包括对象识别,传输学习以及对象操纵和掌握。最后,在每个领域的当前进步中,本文概述了有希望的新研究指示。
translated by 谷歌翻译
通过触觉反馈感知物体滑移的能力使人类能够完成复杂的操纵任务,包括保持稳定的掌握。尽管触觉信息用于许多应用程序,但触觉传感器尚未在工业机器人设置中广泛部署。挑战的一部分在于从触觉数据流中识别滑移和其他事件。在本文中,我们提出了一种基于学习的方法,可以使用气压触觉传感器检测滑移。这些传感器具有许多理想的属性,包括高耐用性和可靠性,并且由廉价的现成组件构建。我们训练一个时间卷积神经网络来检测滑动,达到高检测精度,同时表现出稳健性,以对滑动运动的速度和方向。此外,我们在涉及各种常见对象的两项操纵任务上测试了探测器,并证明了对训练期间看不到的现实情况的成功概括。我们认为,气压触觉传感技术与数据驱动的学习相结合,适用于许多操纵任务,例如滑移补偿。
translated by 谷歌翻译
从一个或多个未分类桩中挑选一个或多个物体对于机器人系统而言仍然是不平凡的。当桩由包含彼此纠缠的单个项目的颗粒材料(GM)组成时,尤其如此,导致挑选出更多的选择。这种容易发生的GM的关键特征之一是从桩中的主要物体延伸的突起存在。这项工作描述了后者在引起机械纠缠及其对选择一致性的影响方面所扮演的角色。 IT报告了实验,其中采摘具有不同突出长度(PLS)的GMS导致挑选质量差异增加了76%,这表明PL是采摘策略设计中的一项信息功能。此外,为了应对这种效果,它提出了一种新的传播(SNP)方法,可大大减少纠结,从而使选择更加一致。与试图从桩中的无缠结点进行选择的先前方法相比,提出的方法导致选择误差(PE)的降低高达51%,并显示出对先前看不见的GMS的良好概括。
translated by 谷歌翻译
机器人仿真一直是数据驱动的操作任务的重要工具。但是,大多数现有的仿真框架都缺乏与触觉传感器的物理相互作用的高效和准确模型,也没有逼真的触觉模拟。这使得基于触觉的操纵任务的SIM转交付仍然具有挑战性。在这项工作中,我们通过建模接触物理学来整合机器人动力学和基于视觉的触觉传感器的模拟。该触点模型使用机器人最终效应器上的模拟接触力来告知逼真的触觉输出。为了消除SIM到真实传输差距,我们使用现实世界数据校准了机器人动力学,接触模型和触觉光学模拟器的物理模拟器,然后我们在零摄像机上演示了系统的有效性 - 真实掌握稳定性预测任务,在各种对象上,我们达到平均准确性为90.7%。实验揭示了将我们的模拟框架应用于更复杂的操纵任务的潜力。我们在https://github.com/cmurobotouch/taxim/tree/taxim-robot上开放仿真框架。
translated by 谷歌翻译
用单个机器人手抓住各种大小和形状的各种物体是一项挑战。为了解决这个问题,我们提出了一只名为“ F3手”的新机器人手,受人食指和拇指的复杂运动的启发。 F3手试图通过将平行运动手指和旋转运动手指与自适应功能结合在一起来实现复杂的人类样运动。为了确认我们的手的性能,我们将其附加到移动操纵器 - 丰田人支持机器人(HSR),并进行了掌握实验。在我们的结果中,我们表明它能够掌握所有YCB对象(总共82个),包括外径的垫圈小至6.4mm。我们还构建了一个用于直观操作的系统,并使用3D鼠标掌握了另外24个对象,包括小牙签和纸夹以及大型投手和饼干盒。即使在不精确的控制和位置偏移量下,F3手也能够在抓住98%的成功率方面取得成功率。此外,由于手指的适应性功能,我们展示了F3手的特征,这些特征促进了在理想的姿势中抓住诸如草莓之类的软物体。
translated by 谷歌翻译
尽管已显示触觉皮肤可用于检测机器人臂及其环境之间的碰撞,但并未广泛用于改善机器人抓握和手持操作。我们提出了一种新型的传感器设计,用于覆盖现有的多指机器人手。我们在台式实验中使用织物和抗静态泡沫底物分析了四种不同的压电材料的性能。我们发现,尽管压电泡沫被设计为包装材料,而不是用作传感底物,但它的性能与专门为此目的设计的织物相当。尽管这些结果证明了压电泡沫对触觉传感应用的潜力,但它们并未完全表征这些传感器在机器人操作中使用的功效。因此,我们使用低密度泡沫底物来开发可扩展的触觉皮肤,该皮肤可以连接到机器人手的手掌上。我们使用该传感器展示了几项机器人操纵任务,以显示其可靠地检测和本地化接触的能力,并在掌握和运输任务期间分析接触模式。我们的项目网站提供了有关传感器开发和分析中使用的所有材料,软件和数据的详细信息:https://sites.google.com/gcloud.utah.edu/piezoresistive-tactile-sensing/。
translated by 谷歌翻译