机器人从能够根据其材料属性进行对象进行分类或操纵对象而受益。这种能力可通过适当的抓握姿势和力选择来确保对复杂物体进行精细操纵。先前的工作集中在触觉或视觉处理上,以确定掌握时间的材料类型。在这项工作中,我们介绍了一种新型的平行机器人抓地力设计,以及一种从握把手指内收集光谱读数和视觉图像的方法。我们训练非线性支持向量机(SVM),该机器可以通过递归估计将要抓住的物体的材料分类,并且随着从指尖到物体的距离降低的距离,置信度越来越高。为了验证硬件设计和分类方法,我们从16种真实和假水果品种(由聚苯乙烯/塑料组成)中收集样品,从而导致一个包含光谱曲线,场景图像和高分辨率纹理图像的数据集,因为对象被掌握,提起并释放。我们的建模方法证明了在32类决策问题中对对象进行分类时的准确性为96.4%。这比最先进的计算机视觉算法的状态在区分视觉上相似的材料方面提高了29.4%。与先前的工作相反,我们的递归估计模型解释了频谱信号强度的增加,并允许随着抓手接近对象做出决策。我们得出的结论是,光谱法是使机器人不仅能够对握住的对象进行分类,还可以理解其潜在的材料组成。
translated by 谷歌翻译
通过触觉反馈感知物体滑移的能力使人类能够完成复杂的操纵任务,包括保持稳定的掌握。尽管触觉信息用于许多应用程序,但触觉传感器尚未在工业机器人设置中广泛部署。挑战的一部分在于从触觉数据流中识别滑移和其他事件。在本文中,我们提出了一种基于学习的方法,可以使用气压触觉传感器检测滑移。这些传感器具有许多理想的属性,包括高耐用性和可靠性,并且由廉价的现成组件构建。我们训练一个时间卷积神经网络来检测滑动,达到高检测精度,同时表现出稳健性,以对滑动运动的速度和方向。此外,我们在涉及各种常见对象的两项操纵任务上测试了探测器,并证明了对训练期间看不到的现实情况的成功概括。我们认为,气压触觉传感技术与数据驱动的学习相结合,适用于许多操纵任务,例如滑移补偿。
translated by 谷歌翻译
触摸感在使人类能够理解和与周围环境互动方面发挥着关键作用。对于机器人,触觉感应也是不可替代的。在与物体交互时,触觉传感器为机器人提供了理解物体的有用信息,例如分布式压力,温度,振动和纹理。在机器人抓住期间,视力通常由其最终效应器封闭,而触觉感应可以测量视觉无法访问的区域。在过去的几十年中,已经为机器人开发了许多触觉传感器,并用于不同的机器人任务。在本章中,我们专注于使用触觉对机器人抓握的触觉,并研究近期对物质性质的触觉趋势。我们首先讨论了术语,即形状,姿势和材料特性对三个重要的物体特性的触觉感知。然后,我们通过触觉感应审查抓握稳定性预测的最新发展。在这些作品中,我们确定了在机器人抓握中协调视觉和触觉感应的要求。为了证明使用触觉传感来提高视觉感知,介绍了我们最近的抗议重建触觉触觉感知的发展。在所提出的框架中,首先利用相机视觉的大型接收领域以便快速搜索含有裂缝的候选区域,然后使用高分辨率光学触觉传感器来检查这些候选区域并重建精制的裂缝形状。实验表明,我们所提出的方法可以实现0.82mm至0.24mm的平均距离误差的显着降低,以便重建。最后,我们在讨论了对机器人任务中施加触觉感应的公开问题和未来方向的讨论。
translated by 谷歌翻译
人类的物体感知能力令人印象深刻,当试图开发具有类似机器人的解决方案时,这变得更加明显。从人类如何将视觉和触觉用于对象感知和相关任务的灵感中,本文总结了机器人应用的多模式对象感知的当前状态。它涵盖了生物学灵感,传感器技术,数据集以及用于对象识别和掌握的感觉数据处理的各个方面。首先,概述了多模式对象感知的生物学基础。然后讨论了传感技术和数据收集策略。接下来,介绍了主要计算方面的介绍,突出显示了每个主要应用领域的一些代表性文章,包括对象识别,传输学习以及对象操纵和掌握。最后,在每个领域的当前进步中,本文概述了有希望的新研究指示。
translated by 谷歌翻译
The accurate detection and grasping of transparent objects are challenging but of significance to robots. Here, a visual-tactile fusion framework for transparent object grasping under complex backgrounds and variant light conditions is proposed, including the grasping position detection, tactile calibration, and visual-tactile fusion based classification. First, a multi-scene synthetic grasping dataset generation method with a Gaussian distribution based data annotation is proposed. Besides, a novel grasping network named TGCNN is proposed for grasping position detection, showing good results in both synthetic and real scenes. In tactile calibration, inspired by human grasping, a fully convolutional network based tactile feature extraction method and a central location based adaptive grasping strategy are designed, improving the success rate by 36.7% compared to direct grasping. Furthermore, a visual-tactile fusion method is proposed for transparent objects classification, which improves the classification accuracy by 34%. The proposed framework synergizes the advantages of vision and touch, and greatly improves the grasping efficiency of transparent objects.
translated by 谷歌翻译
软机器人抓手有助于富含接触的操作,包括对各种物体的强大抓握。然而,软抓手的有益依从性也会导致重大变形,从而使精确的操纵具有挑战性。我们提出视觉压力估计与控制(VPEC),这种方法可以使用外部摄像头的RGB图像施加的软握力施加的压力。当气动抓地力和肌腱握力与平坦的表面接触时,我们为视觉压力推断提供了结果。我们还表明,VPEC可以通过对推断压力图像的闭环控制进行精确操作。在我们的评估中,移动操纵器(来自Hello Robot的拉伸RE1)使用Visual Servoing在所需的压力下进行接触;遵循空间压力轨迹;并掌握小型低调的物体,包括microSD卡,一分钱和药丸。总体而言,我们的结果表明,对施加压力的视觉估计可以使软抓手能够执行精确操作。
translated by 谷歌翻译
我们研究了如何将高分辨率触觉传感器与视觉和深度传感结合使用,以改善掌握稳定性预测。在模拟高分辨率触觉传感的最新进展,尤其是触觉模拟器,使我们能够评估如何结合感应方式训练神经网络。借助训练大型神经网络所需的大量数据,机器人模拟器提供了一种快速自动化数据收集过程的方法。我们通过消融研究扩展现有工作,并增加了从YCB基准组中获取的一组对象。我们的结果表明,尽管视觉,深度和触觉感测的组合为已知对象提供了最佳预测结果,但该网络未能推广到未知对象。我们的工作还解决了触觉模拟中机器人抓握的现有问题以及如何克服它们。
translated by 谷歌翻译
尽管有触觉信息的实用性,但触觉传感器尚未在工业机器人设置中广泛部署。挑战的一部分在于识别触觉数据流的滑移和其他关键事件。在本文中,我们提出了一种基于学习的方法,可以使用气压触觉传感器检测滑移。尽管这些传感器的分辨率很低,但它们具有许多其他理想的特性,包括高可靠性和耐用性,非常苗条的轮廓和低成本。我们能够实现大于91%的滑动检测精度,同时稳健地遵循滑动运动的速度和方向。此外,我们在涉及常见家庭对象的两个机器人操纵任务上测试了我们的探测器,并证明了对训练期间未见的现实情况的成功概括。我们表明,气压触觉传感技术与数据驱动的学习相结合,可能适用于复杂的操纵任务,例如滑移补偿。
translated by 谷歌翻译
Fruit is a key crop in worldwide agriculture feeding millions of people. The standard supply chain of fruit products involves quality checks to guarantee freshness, taste, and, most of all, safety. An important factor that determines fruit quality is its stage of ripening. This is usually manually classified by experts in the field, which makes it a labor-intensive and error-prone process. Thus, there is an arising need for automation in the process of fruit ripeness classification. Many automatic methods have been proposed that employ a variety of feature descriptors for the food item to be graded. Machine learning and deep learning techniques dominate the top-performing methods. Furthermore, deep learning can operate on raw data and thus relieve the users from having to compute complex engineered features, which are often crop-specific. In this survey, we review the latest methods proposed in the literature to automatize fruit ripeness classification, highlighting the most common feature descriptors they operate on.
translated by 谷歌翻译
视觉的触觉传感器由于经济实惠的高分辨率摄像机和成功的计算机视觉技术而被出现为机器人触摸的有希望的方法。但是,它们的物理设计和他们提供的信息尚不符合真实应用的要求。我们提供了一种名为Insight的强大,柔软,低成本,视觉拇指大小的3D触觉传感器:它不断在其整个圆锥形感测表面上提供定向力分布图。围绕内部单眼相机构造,传感器仅在刚性框架上仅成型一层弹性体,以保证灵敏度,鲁棒性和软接触。此外,Insight是第一个使用准直器将光度立体声和结构光混合的系统来检测其易于更换柔性外壳的3D变形。通过将图像映射到3D接触力的空间分布(正常和剪切)的深神经网络推断力信息。洞察力在0.4毫米的总空间分辨率,力量幅度精度约为0.03 n,并且对于具有不同接触面积的多个不同触点,在0.03-2 n的范围内的5度大约5度的力方向精度。呈现的硬件和软件设计概念可以转移到各种机器人部件。
translated by 谷歌翻译
当没有光学信息可用时,在不确定环境下的机器人探索具有挑战性。在本文中,我们提出了一种自主解决方案,即仅基于触觉感测,探索一个未知的任务空间。我们首先根据MEMS晴雨表设备设计了晶须传感器。该传感器可以通过非侵入性与环境进行交互来获取联系信息。该传感器伴随着一种计划技术,可以通过使用触觉感知来产生探索轨迹。该技术依赖于触觉探索的混合政策,其中包括用于对象搜索的主动信息路径计划,以及用于轮廓跟踪的反应性HOPF振荡器。结果表明,混合勘探政策可以提高对象发现的效率。最后,通过细分对象和分类来促进场景的理解。开发了一个分类器,以根据晶须传感器收集的几何特征识别对象类别。这种方法证明了晶须传感器以及触觉智能,可以提供足够的判别特征来区分对象。
translated by 谷歌翻译
We describe a learning-based approach to handeye coordination for robotic grasping from monocular images. To learn hand-eye coordination for grasping, we trained a large convolutional neural network to predict the probability that task-space motion of the gripper will result in successful grasps, using only monocular camera images and independently of camera calibration or the current robot pose. This requires the network to observe the spatial relationship between the gripper and objects in the scene, thus learning hand-eye coordination. We then use this network to servo the gripper in real time to achieve successful grasps. To train our network, we collected over 800,000 grasp attempts over the course of two months, using between 6 and 14 robotic manipulators at any given time, with differences in camera placement and hardware. Our experimental evaluation demonstrates that our method achieves effective real-time control, can successfully grasp novel objects, and corrects mistakes by continuous servoing.
translated by 谷歌翻译
尽管已显示触觉皮肤可用于检测机器人臂及其环境之间的碰撞,但并未广泛用于改善机器人抓握和手持操作。我们提出了一种新型的传感器设计,用于覆盖现有的多指机器人手。我们在台式实验中使用织物和抗静态泡沫底物分析了四种不同的压电材料的性能。我们发现,尽管压电泡沫被设计为包装材料,而不是用作传感底物,但它的性能与专门为此目的设计的织物相当。尽管这些结果证明了压电泡沫对触觉传感应用的潜力,但它们并未完全表征这些传感器在机器人操作中使用的功效。因此,我们使用低密度泡沫底物来开发可扩展的触觉皮肤,该皮肤可以连接到机器人手的手掌上。我们使用该传感器展示了几项机器人操纵任务,以显示其可靠地检测和本地化接触的能力,并在掌握和运输任务期间分析接触模式。我们的项目网站提供了有关传感器开发和分析中使用的所有材料,软件和数据的详细信息:https://sites.google.com/gcloud.utah.edu/piezoresistive-tactile-sensing/。
translated by 谷歌翻译
布料的机器人操作的应用包括织物制造业到处理毯子和洗衣。布料操作对于机器人而言是挑战,这主要是由于它们的高度自由度,复杂的动力学和折叠或皱巴巴配置时的严重自我闭合。机器人操作的先前工作主要依赖于视觉传感器,这可能会对细粒度的操纵任务构成挑战,例如从一堆布上抓住所需数量的布料层。在本文中,我们建议将触觉传感用于布操作;我们将触觉传感器(Resin)连接到弗兰卡机器人的两个指尖之一,并训练分类器,以确定机器人是否正在抓住特定数量的布料层。在测试时间实验中,机器人使用此分类器作为其政策的一部分,使用触觉反馈来掌握一两个布层,以确定合适的握把。实验结果超过180次物理试验表明,与使用图像分类器的方法相比,所提出的方法优于不使用触觉反馈并具有更好地看不见布的基准。代码,数据和视频可在https://sites.google.com/view/reskin-cloth上找到。
translated by 谷歌翻译
大物体的操纵和安全地在人类附近进行安全操作的能力是通用国内机器人助手的关键能力。我们介绍了一种柔软,触觉的人形的人形机器人的设计,并展示了用于处理大物体的全身丰富的接触操作策略。我们展示了我们的硬件设计理念,用于使用软触觉传感模块,包括:(i)低成本,抗缝,接触压力定位的武器, (ii)基于TRI软气泡传感器的爪子,用于最终效应器,(III)柔顺的力/几何传感器,用于粗糙几何感测表面/胸部。我们利用这些模块的机械智能和触觉感应,为全身抓握控制进行开发和展示运动原语。我们评估硬件在实现各种大型国内物体上实现不同优势的掌握。我们的结果表明,利用富含接触的操纵策略的柔软度和触觉感应的重要性,以及与世界的全身力量控制的互动前进的道路。
translated by 谷歌翻译
Cloth in the real world is often crumpled, self-occluded, or folded in on itself such that key regions, such as corners, are not directly graspable, making manipulation difficult. We propose a system that leverages visual and tactile perception to unfold the cloth via grasping and sliding on edges. By doing so, the robot is able to grasp two adjacent corners, enabling subsequent manipulation tasks like folding or hanging. As components of this system, we develop tactile perception networks that classify whether an edge is grasped and estimate the pose of the edge. We use the edge classification network to supervise a visuotactile edge grasp affordance network that can grasp edges with a 90% success rate. Once an edge is grasped, we demonstrate that the robot can slide along the cloth to the adjacent corner using tactile pose estimation/control in real time. See http://nehasunil.com/visuotactile/visuotactile.html for videos.
translated by 谷歌翻译
抓握是通过在一组触点上施加力和扭矩来挑选对象的过程。深度学习方法的最新进展允许在机器人对象抓地力方面快速进步。我们在过去十年中系统地调查了出版物,特别感兴趣使用最终效果姿势的所有6度自由度抓住对象。我们的综述发现了四种用于机器人抓钩的常见方法:基于抽样的方法,直接回归,强化学习和示例方法。此外,我们发现了围绕抓握的两种“支持方法”,这些方法使用深入学习来支持抓握过程,形状近似和负担能力。我们已经将本系统评论(85篇论文)中发现的出版物提炼为十个关键要点,我们认为对未来的机器人抓握和操纵研究至关重要。该调查的在线版本可从https://rhys-newbury.github.io/projects/6dof/获得
translated by 谷歌翻译
对于机器人来说,拾取透明的对象仍然是一项具有挑战性的任务。透明对象(例如反射和折射)的视觉属性使依赖相机传感的当前抓握方法无法检测和本地化。但是,人类可以通过首先观察其粗剖面,然后戳其感兴趣的区域以获得良好的抓握轮廓来很好地处理透明的物体。受到这一点的启发,我们提出了一个新颖的视觉引导触觉框架,以抓住透明的物体。在拟议的框架中,首先使用分割网络来预测称为戳戳区域的水平上部区域,在该区域中,机器人可以在该区域戳入对象以获得良好的触觉读数,同时导致对物体状态的最小干扰。然后,使用高分辨率胶触觉传感器进行戳戳。鉴于触觉阅读有所改善的当地概况,计划掌握透明物体的启发式掌握。为了减轻对透明对象的现实世界数据收集和标记的局限性,构建了一个大规模逼真的合成数据集。广泛的实验表明,我们提出的分割网络可以预测潜在的戳戳区域,平均平均精度(地图)为0.360,而视觉引导的触觉戳戳可以显着提高抓地力成功率,从38.9%到85.2%。由于其简单性,我们提出的方法也可以被其他力量或触觉传感器采用,并可以用于掌握其他具有挑战性的物体。本文中使用的所有材料均可在https://sites.google.com/view/tactilepoking上获得。
translated by 谷歌翻译
机器人仿真一直是数据驱动的操作任务的重要工具。但是,大多数现有的仿真框架都缺乏与触觉传感器的物理相互作用的高效和准确模型,也没有逼真的触觉模拟。这使得基于触觉的操纵任务的SIM转交付仍然具有挑战性。在这项工作中,我们通过建模接触物理学来整合机器人动力学和基于视觉的触觉传感器的模拟。该触点模型使用机器人最终效应器上的模拟接触力来告知逼真的触觉输出。为了消除SIM到真实传输差距,我们使用现实世界数据校准了机器人动力学,接触模型和触觉光学模拟器的物理模拟器,然后我们在零摄像机上演示了系统的有效性 - 真实掌握稳定性预测任务,在各种对象上,我们达到平均准确性为90.7%。实验揭示了将我们的模拟框架应用于更复杂的操纵任务的潜力。我们在https://github.com/cmurobotouch/taxim/tree/taxim-robot上开放仿真框架。
translated by 谷歌翻译
当人类掌握现实世界中的物体时,我们经常移动手臂将物体固定在可以使用它的不同姿势中。相比之下,典型的实验室设置仅研究举起后立即研究抓握的稳定性,而没有任何随后的臂重置。但是,由于重力扭矩和握力接触力可能会完全改变,因此抓紧稳定性可能会根据物体的固定姿势而差异很大。为了促进对持有姿势如何影响掌握稳定性的研究,我们提出了Poseit,这是一种新型的多模式数据集,其中包含从抓住对象的完整周期收集的视觉和触觉数据,将手臂重新放置到其中一个采样姿势,并将其重新放置到其中一个采样的姿势中,并摇动物体。使用Poseit的数据,我们可以制定和应对预测特定固定姿势是否稳定的抓握对象的任务。我们培训一个LSTM分类器,该分类器在拟议的任务上达到85%的准确性。我们的实验结果表明,接受Poseit训练的多模式模型比使用唯一视觉或触觉数据具有更高的精度,并且我们的分类器也可以推广到看不见的对象和姿势。
translated by 谷歌翻译