0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器人也会拥有触觉分析能力

新机器视觉 来源:机器之心 作者:机器之心 2020-12-28 13:54 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人类善于利用手指触觉来感知物体的物理特性(包括质量、重心、转动惯量、表面摩擦等),从而完成高难度的控制任务。在不远的将来,机器人也会拥有触觉分析能力。在刚刚结束的机器人顶会 IROS 2020 上,上海交大 & MIT 联合项目 SwingBot 为我们展示了如何让机器人通过触觉传感器来学习感知物体复杂的物理特性(tactile exploration),从而完成一个高难度的甩笔任务(in-hand object swing-up)。该工作也摘得此次大会的最佳论文奖项。

IROS2020 最佳论文奖项。来源 iros2020.org (http://iros2020.org/) 下图为机器人触觉分析的流程通过握着物体旋转一定角度和抖动物体来感知物理特性,从而推断出最佳的控制策略实现甩笔。

该项目通过对多种触觉探索动作的信息融合,让机器人端到端的去学习概括手中物体的物理特性,并依靠这个物理特征来实现高难度的手上控制任务(in-hand swing-up)。更多的详细内容可以访问论文原文和项目主页:

论文链接:http://gelsight.csail.mit.edu/swingbot/IROS2020_SwingBot.pdf

项目地址:http://gelsight.csail.mit.edu/swingbot/

高精度、低成本的触觉传感器 研究人员使用的是一款名为 GelSight 的机器人触觉传感器,该传感器也发明于此 MIT 项目组(指导教授:Edward Adelson)。区别于传统触觉传感器依赖于稀疏的电极阵列(基于电阻 / 电容 ),GelSight 是一个基于光学的触觉传感器,通过一个微型相机来拍摄接触面的三维几何形变,可以返回高精度的触觉信息(见下图是 GelSight 重建的奥利奥饼干表面)。 更值得一提的是,因为只需要一个低成本的微型摄像头和一个树莓派控制器,GelSight 的制作总成本只有 100 美金(700 元),远低于市面上的其他触觉传感器。

GelSight 触觉信息效果图。来源:[2] 在本篇工作中,研究人员将 GelSight 安装在了机器人二爪夹具的一侧,通过在传感器上标定靶点和重建三维信息,高密度的力学反馈可以以每秒60帧的速度实时传输出来。

基于多种触觉探索动作的物理特性分析能力 人类可以通过多种触觉探索动作(触摸、甩、掂量)来概括手上物体的物理特性(重量、光滑程度、重心位置等)[1],而且人类并不需要测量这些物理参数的精确数值,而是用自己的经验结合触觉手感来实现对手中物体高难度的控制。 受这个观察的启发,该项目的研究人员首先提出了一个多触觉探索的信息融合模型(Information fusion model for multiple tactile exploration actions),该模型的目的是整合不同的机器人触觉探索动作信息到一个共同的物理特性特征空间(Physical embedding)中,从而实现对物体多种物理特性(质量、重心位置、转动惯量和摩擦力)的概括能力。

多触觉探索动作的信息融合模型。来源:论文 研究人员为机器人设计了两种基础的探索动作:(1)紧握物体并旋转一定角度(in-hand tilting)和(2)放松紧握状态并抖动物体(in-hand shaking)。动作(1)的触觉反馈信息会通过一个卷积神经网络(CNN)来输出一个一维的特征向量;动作(2)的抖动因为是时序信息,会用一个循环神经网络(RNN)来处理获得相应的特征。这两个特征信息通过拼接和一个由若干多层感知器(MLP)组成的融合模型进行整合,得到一个低维的物理特征概括(physical feature embedding)。 区别于逐个测量每种不同的物理特性,这种信息整合模型的一大优势是可以根据任务来自主调节对不同物理信息的关注程度,因为很多任务是无法明确分析出是哪一种物理特性起到了主导作用,而使用该方法可以让机器人自主地学习并选择需要的物理信息。此外,这两个触觉探索动作加起来只需要 7 秒的时间,相比于用精密的仪器来逐个测量物体的质量和摩擦力等,该方法的效率也有很大的提升,并且不需要额外的测量仪器的辅助,更接近人类的触觉感知能力。 此外,为了让机器人自主学习选择最需要的物理信息,研究人员接着提出了一个控制预测模型,该模型通过输入先前获得的物理特征向量和机器人控制参数,来预测最终物体会被甩到的角度。在训练过程中,整个流程是用一个端到端(end-to-end)的训练算法来实现的。研究人员设计了一个机器人自动采集数据的系统,并且 3D 打印了可以随意调节物理特性的模型来采集数据,具体如下两个动图所示:

可变物理特性的模板物体。

数据收集流程。 研究人员让机器人自主采集了1350次甩笔的数据,其中包含了27个不同物理特性的物体。在测试的时候,研究人员额外选择了6个训练数据中不包含(unseen)的新物体,机器人需要通过触觉探索模型来确定未知物体的物理特性,并根据任务要求的最终甩到的角度,来选择一套成功率最高的控制参数。 实验成果 研究人员首先对比了使用和不使用多触觉探索融合算法对预测控制模型准确率的影响(数值越低,准确度越高),其中融合算法(Comb.)在已知和未知物体上的预测误差率都远低于不使用触觉信息(None)。此外融合算法(Comb.)的表现也比单一使用一种触觉探索动作(Tilt.: tilting-only, Shak.:shaking-only)的算法效果好。

4d1a018e-4699-11eb-8b86-12bb97331649.png

以下是机器人在测试过程中,通过使用多触觉探索融合算法来实现对未知物体(unseen objects)的物理特性探索和上甩效果(swing-up)。第一个任务要求将物体上甩至相对于传感器 90 度的角度位置:

第二个任务要求将物体上甩至相对于传感器 180 度的位置:

研究人员紧接着探索融合算法学习到的物理特征空间到底包含哪些信息。他们用一组额外的多层感知器来回归(regression)每一个物理特性的具体参数,并计算误差百分比(数值越低,准确度越高)。 如下表所示,可以发现第一个旋转动作(Tilting)对物体的质量(Mass)、重心(Center of mass)和转动惯量(Moment of inertia)的信息捕捉更准确。而第二个摇晃动作(Shaking)对物体接触部分的摩擦力(Friction)的把握更准。将两种探索动作融合的算法(Combined)取得了最好的回归准确率。

53d885b8-4699-11eb-8b86-12bb97331649.png

最后研究人员进一步探索所学习到的物理特征空间是如何能够做到对未知物体依然适用的。他们可视化了6个未知物体的数据分布并展示在了下图 (b) 中,其中 x 轴表示控制参数,y 轴表示最终上甩的角度。在图 (a) 中,研究人员用 PCA 提取了每个采样中网络输出的物理特征向量的主成分(2 维)并可视化在这个二维点图中。观察可以发现,如果两个物体的控制策略相近(例如物体 5 和物体 6),他们的物理特征间距也会越近,而两个物体的控制策略相差较大(例如物体 1 和物体 4),则在特征空间上的间距也会更大。

物理特征可视化。来源:论文 作者介绍

本项目的共同第一作者是:

王辰(Chen Wang): 本科毕业于上海交通大学,师从卢策吾教授。他即将前往 Stanford 攻读计算机博士学位,该项目是其在 MIT 暑研期间完成的。个人主页:http://www.chenwangjeremy.net

王少雄(Shaoxiong Wang):MIT CSAIL 博士生四年级,师从 Prof. Edward Adelson(此项目指导教授),本科毕业于清华大学。个人主页:http://shaoxiongwang.com/

责任编辑:lq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 控制器
    +关注

    关注

    114

    文章

    17638

    浏览量

    190243
  • 机器人
    +关注

    关注

    213

    文章

    30580

    浏览量

    219547
  • 触觉传感器
    +关注

    关注

    4

    文章

    116

    浏览量

    10309

原文标题:机器人也能「甩笔」,拥有触觉分析能力,上交&MIT获IROS 2020最佳论文奖

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    时识科技类脑视触觉方案破解机器人灵巧操作难题

    当前,机器人要实现如人类般灵巧的操作,其触觉感知系统正面临三大核心瓶颈:功耗高导致续航受限,数据量大引发延迟响应,以及系统复杂制约集成部署。这些因素共同限制了机器人在精细操作、人机安全交互等场景下的应用深度与广度。
    的头像 发表于 11-08 15:39 1828次阅读
    时识科技类脑视<b class='flag-5'>触觉</b>方案破解<b class='flag-5'>机器人</b>灵巧操作难题

    RK3576机器人核心:三屏异显+八路摄像头,重塑机器人交互与感知

    瑞芯微RK3576 AIoT处理器处理器凭借其卓越的多屏异显与8路摄像头接入能力,为机器人领域带来革新。米尔电子MYD-LR3576开发板实测数据显示,在高负载下CPU占用仅34%,完美实现多路视觉
    发表于 10-29 16:41

    小萝卜机器人的故事

    代替, LED, 有大佬感兴趣, 一起关注和讨论代码, 这个机器人知名度不高, 可是是机器人的原型, 如果开放接口, 定位和无线充电, 不失为未来的礼物。 让我们为小萝卜工程师的, 自掏腰包救萝卜
    发表于 10-23 05:24

    人形机器人传感器产业链最新分析:力、触觉、IMU、视觉传感器为主流!(全面)

    环境的视觉、触觉、力觉,到维持自身平衡与定位的惯性测量等,各类传感器的性能与技术进步直接决定了人形机器人的智能化水平与应用场景拓展能力。当前,人形机器人传感器行业迎来发展机遇,政策支持
    的头像 发表于 10-11 18:38 4.5w次阅读
    人形<b class='flag-5'>机器人</b>传感器产业链最新<b class='flag-5'>分析</b>:力、<b class='flag-5'>触觉</b>、IMU、视觉传感器为主流!(全面)

    机器人竞技幕后:磁传感器芯片激活 “精准感知力”

    支撑机器人竞技能力的核心力量,深刻改变着竞技机器人能力边界。 磁传感器芯片为机器人运动提供 “精准导航”。在动态平衡系统中,像昆泰芯 K
    发表于 08-26 10:02

    工业机器人的特点

    机器人是关键。工业互联网是通过端上的数据传输,经过大数据分析和云计算处理,再进行智能化决策的一整个过程,其中端的数据传输是基础。工业互联网的端包括机器人、传感器等一切线下连接端口。因此发展工业
    发表于 07-26 11:22

    南京工业大学:仿生触觉传感系统让机器人拥有“人类指尖”般的细腻感知

      想象一下,未来的机器人不仅能灵活抓取物体,还能像人类一样感知丝绸的顺滑、砂纸的粗糙,甚至区分不同面料的细微纹理。这一切的关键在于“触觉”。近日,南京工业大学黄维院士、孙庚志教授,安徽工程大学郑贤
    的头像 发表于 06-14 17:32 651次阅读
    南京工业大学:仿生<b class='flag-5'>触觉</b>传感系统让<b class='flag-5'>机器人</b><b class='flag-5'>拥有</b>“人类指尖”般的细腻感知

    明远智睿SSD2351开发板:语音机器人领域的变革力量

    的四核1.4GHz处理器具备强劲的运算性能,能够高效处理语音机器人运行过程中的复杂任务。语音识别和合成需要大量的计算资源,该处理器可以快速对语音信号进行分析、处理和转换。在实时语音交互场景中,无论是
    发表于 05-28 11:36

    盘点#机器人开发平台

    地瓜机器人RDK X5开发套件地瓜机器人RDK X5开发套件产品介绍 旭日5芯片10TOPs算力-电子发烧友网机器人开发套件 Kria KR260机器人开发套件 Kria KR260-
    发表于 05-13 15:02

    详细介绍机场智能指路机器人的工作原理

    负责接收旅客的语音指令,以便机器人理解旅客的需求。 环境感知与信息融合 :这些传感器收集到的信息进行融合处理。例如,激光雷达提供的距离信息和摄像头捕捉的视觉信息相结合,能让机器人更准确地识别周围环境
    发表于 05-10 18:26

    【「具身智能机器人系统」阅读体验】2.具身智能机器人的基础模块

    具身智能机器人的基础模块,这个是本书的第二部分内容,主要分为四个部分:机器人计算系统,自主机器人的感知系统,自主机器人的定位系统,自主机器人
    发表于 01-04 19:22

    【「具身智能机器人系统」阅读体验】2.具身智能机器人大模型

    、医疗、服务等领域的应用前景更加广阔,使得人类能够更轻松地借助机器完成复杂工作。我深刻认识到,大模型技术正在从根本上改变我们对机器人能力的认知。它们不仅是一种技术工具,更是推动具身智
    发表于 12-29 23:04

    【「具身智能机器人系统」阅读体验】1.初步理解具身智能

    与未来,涵盖如基于行为的人工智能、生物启发的进化人工智能及认知机器人技术的发展。这一历史背景为随后的大模型驱动的具身智能讨论奠定了基础,随着人工智能模型复杂性和能力的不断提升,这一主题变得愈加
    发表于 12-28 21:12

    《具身智能机器人系统》第7-9章阅读心得之具身智能机器人与大模型

    研读《具身智能机器人系统》第7-9章,我被书中对大模型与机器人技术融合的深入分析所吸引。第7章详细阐述了ChatGPT for Robotics的核心技术创新:它摒弃了传统的分层控制架构,创造性地
    发表于 12-24 15:03

    【「具身智能机器人系统」阅读体验】+初品的体验

    的快速发展,相关人才的需求在不断增加,通过阅读该书可以帮助大家系统性地了解和分析当前具身智能机器人系统的发展现状和前沿研究,为未来的研究和开发工作提供指导。此外,本书还可以为研究人员和工程师提供具体
    发表于 12-20 19:17