0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器人也将拥有和人类一样的触觉分析能力?

中科院长春光机所 来源:机器之心 作者:机器之心 2020-12-23 10:31 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

人类善于利用手指触觉来感知物体的物理特性(包括质量、重心、转动惯量、表面摩擦等),从而完成高难度的控制任务。在不远的将来,机器人也会拥有触觉分析能力。在刚刚结束的机器人顶会 IROS 2020 上,上海交大 & MIT 联合项目 SwingBot 为我们展示了如何让机器人通过触觉传感器来学习感知物体复杂的物理特性(tactile exploration),从而完成一个高难度的甩笔任务(in-hand object swing-up)。该工作也摘得此次大会的最佳论文奖项。

IROS2020 最佳论文奖项。来源 iros2020.org (http://iros2020.org/) 下图为机器人触觉分析的流程通过握着物体旋转一定角度和抖动物体来感知物理特性,从而推断出最佳的控制策略实现甩笔。

该项目通过对多种触觉探索动作的信息融合,让机器人端到端的去学习概括手中物体的物理特性,并依靠这个物理特征来实现高难度的手上控制任务(in-hand swing-up)。更多的详细内容可以访问论文原文和项目主页:

高精度、低成本的触觉传感器 研究人员使用的是一款名为 GelSight 的机器人触觉传感器,该传感器也发明于此 MIT 项目组(指导教授:Edward Adelson)。区别于传统触觉传感器依赖于稀疏的电极阵列(基于电阻 / 电容 ),GelSight 是一个基于光学的触觉传感器,通过一个微型相机来拍摄接触面的三维几何形变,可以返回高精度的触觉信息(见下图是 GelSight 重建的奥利奥饼干表面)。 更值得一提的是,因为只需要一个低成本的微型摄像头和一个树莓派控制器,GelSight 的制作总成本只有 100 美金(700 元),远低于市面上的其他触觉传感器。

GelSight 触觉信息效果图。来源:[2] 在本篇工作中,研究人员将 GelSight 安装在了机器人二爪夹具的一侧,通过在传感器上标定靶点和重建三维信息,高密度的力学反馈可以以每秒60帧的速度实时传输出来。

基于多种触觉探索动作的物理特性分析能力 人类可以通过多种触觉探索动作(触摸、甩、掂量)来概括手上物体的物理特性(重量、光滑程度、重心位置等)[1],而且人类并不需要测量这些物理参数的精确数值,而是用自己的经验结合触觉手感来实现对手中物体高难度的控制。 受这个观察的启发,该项目的研究人员首先提出了一个多触觉探索的信息融合模型(Information fusion model for multiple tactile exploration actions),该模型的目的是整合不同的机器人触觉探索动作信息到一个共同的物理特性特征空间(Physical embedding)中,从而实现对物体多种物理特性(质量、重心位置、转动惯量和摩擦力)的概括能力。

多触觉探索动作的信息融合模型。来源:论文 研究人员为机器人设计了两种基础的探索动作:(1)紧握物体并旋转一定角度(in-hand tilting)和(2)放松紧握状态并抖动物体(in-hand shaking)。动作(1)的触觉反馈信息会通过一个卷积神经网络(CNN)来输出一个一维的特征向量;动作

(2)的抖动因为是时序信息,会用一个循环神经网络(RNN)来处理获得相应的特征。这两个特征信息通过拼接和一个由若干多层感知器(MLP)组成的融合模型进行整合,得到一个低维的物理特征概括(physical feature embedding)。 区别于逐个测量每种不同的物理特性,这种信息整合模型的一大优势是可以根据任务来自主调节对不同物理信息的关注程度,因为很多任务是无法明确分析出是哪一种物理特性起到了主导作用,而使用该方法可以让机器人自主地学习并选择需要的物理信息。此外,这两个触觉探索动作加起来只需要 7 秒的时间,相比于用精密的仪器来逐个测量物体的质量和摩擦力等,该方法的效率也有很大的提升,并且不需要额外的测量仪器的辅助,更接近人类的触觉感知能力。 此外,为了让机器人自主学习选择最需要的物理信息,研究人员接着提出了一个控制预测模型,该模型通过输入先前获得的物理特征向量和机器人控制参数,来预测最终物体会被甩到的角度。在训练过程中,整个流程是用一个端到端(end-to-end)的训练算法来实现的。研究人员设计了一个机器人自动采集数据的系统,并且 3D 打印了可以随意调节物理特性的模型来采集数据,具体如下两个动图所示:

可变物理特性的模板物体。

数据收集流程。 研究人员让机器人自主采集了1350次甩笔的数据,其中包含了27个不同物理特性的物体。在测试的时候,研究人员额外选择了6个训练数据中不包含(unseen)的新物体,机器人需要通过触觉探索模型来确定未知物体的物理特性,并根据任务要求的最终甩到的角度,来选择一套成功率最高的控制参数。 实验成果 研究人员首先对比了使用和不使用多触觉探索融合算法对预测控制模型准确率的影响(数值越低,准确度越高),其中融合算法(Comb.)在已知和未知物体上的预测误差率都远低于不使用触觉信息(None)。此外融合算法(Comb.)的表现也比单一使用一种触觉探索动作(Tilt.: tilting-only, Shak.:shaking-only)的算法效果好。

002ced22-4492-11eb-8b86-12bb97331649.png

以下是机器人在测试过程中,通过使用多触觉探索融合算法来实现对未知物体(unseen objects)的物理特性探索和上甩效果(swing-up)。第一个任务要求将物体上甩至相对于传感器 90 度的角度位置:

第二个任务要求将物体上甩至相对于传感器 180 度的位置:

研究人员紧接着探索融合算法学习到的物理特征空间到底包含哪些信息。他们用一组额外的多层感知器来回归(regression)每一个物理特性的具体参数,并计算误差百分比(数值越低,准确度越高)。 如下表所示,可以发现第一个旋转动作(Tilting)对物体的质量(Mass)、重心(Center of mass)和转动惯量(Moment of inertia)的信息捕捉更准确。而第二个摇晃动作(Shaking)对物体接触部分的摩擦力(Friction)的把握更准。将两种探索动作融合的算法(Combined)取得了最好的回归准确率。

07fde7b8-4492-11eb-8b86-12bb97331649.png

最后研究人员进一步探索所学习到的物理特征空间是如何能够做到对未知物体依然适用的。他们可视化了6个未知物体的数据分布并展示在了下图 (b) 中,其中 x 轴表示控制参数,y 轴表示最终上甩的角度。在图 (a) 中,研究人员用 PCA 提取了每个采样中网络输出的物理特征向量的主成分(2 维)并可视化在这个二维点图中。观察可以发现,如果两个物体的控制策略相近(例如物体 5 和物体 6),他们的物理特征间距也会越近,而两个物体的控制策略相差较大(例如物体 1 和物体 4),则在特征空间上的间距也会更大。

物理特征可视化。

原文标题:机器人也能「甩笔」,拥有触觉分析能力

文章出处:【微信公众号:中科院长春光机所】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2577

    文章

    55499

    浏览量

    793895
  • 机器人
    +关注

    关注

    213

    文章

    31439

    浏览量

    223619
  • 触觉
    +关注

    关注

    0

    文章

    21

    浏览量

    9616

原文标题:机器人也能「甩笔」,拥有触觉分析能力

文章出处:【微信号:cas-ciomp,微信公众号:中科院长春光机所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    为什么说关节扭矩传感器是高端机器人的“触觉神经”?

    机器人在每毫秒都能“感知”到自己被推、拉或碰到东西。 正是这种连续、精准的力觉反馈,让机器人实现了三大关键能力: 1. 柔顺控制:像人手一样“顺着来” 传统
    发表于 04-17 17:27

    智能机器人从0到1系统入门课程 带源码课件 百度网盘下载

    ,且无法传达空间信息;视觉识别虽然精准,但缺乏交互的即时性和意图的明确性。真正的智能交互,在于两者有机结合。 未来的机器人将不再依赖简单的“关键词触发”,而是通过多模态融合技术,像人类一样
    发表于 04-11 16:41

    迈来芯如何在极致空间里,打通机器人的任督二脉?

    电子发烧友网报道(文/莫婷婷)在AI大模型的加持下,具身智能的核心载体——人形机器人加速从实验室迈向工厂和家庭。然而,要让机器人真正像一样灵活作业,不仅需要聪明的“大脑”,更需要敏锐
    的头像 发表于 04-10 17:27 8623次阅读
    迈来芯如何在极致空间里,打通<b class='flag-5'>机器人</b>的任督二脉?

    广州团队研制出机器人触觉皮肤”

    机器人的发展日新月异,广州团队研制出机器人触觉皮肤”!广州团队研制的亚毫米级双模态触觉传感器阵列,是机器人
    的头像 发表于 03-11 15:43 1885次阅读

    2026电子皮肤赋能具身智能机器人专题论坛即将召开,共同探索触觉感知新未来

    仿生触觉,开启机器人感知新时代   电子皮肤,是种柔性的、可拉伸的集成传感器网络,能够模拟人类皮肤的压力、温度、湿度等感知功能。近年来,随着柔性电子、纳米材料与人工智能算法的进步,电
    的头像 发表于 12-29 18:49 1375次阅读
    2026电子皮肤赋能具身智能<b class='flag-5'>机器人</b>专题论坛即将召开,共同探索<b class='flag-5'>触觉</b>感知新未来

    代薄膜压力传感,重塑机器人触觉未来

    CEO陈立洋首先解释了触觉传感器到底是什么?他表示,在人类进化中,感知、学习、思考、行动构成了智能演化的核心循环。而当下机器人技术里,执行层面已有诸多突破,触觉感知环节却相对滞后——这
    的头像 发表于 11-26 09:29 682次阅读
    新<b class='flag-5'>一</b>代薄膜压力传感,重塑<b class='flag-5'>机器人</b><b class='flag-5'>触觉</b>未来

    时识科技类脑视触觉方案破解机器人灵巧操作难题

    当前,机器人要实现如人类般灵巧的操作,其触觉感知系统正面临三大核心瓶颈:功耗高导致续航受限,数据量大引发延迟响应,以及系统复杂制约集成部署。这些因素共同限制了机器人在精细操作、人机安全
    的头像 发表于 11-08 15:39 2360次阅读
    时识科技类脑视<b class='flag-5'>触觉</b>方案破解<b class='flag-5'>机器人</b>灵巧操作难题

    RK3576机器人核心:三屏异显+八路摄像头,重塑机器人交互与感知

    。· 多屏显示:显示配送状态、路径信息及简单的触摸操作界面,方便工作人员监控与交互。 开启您的下机器人项目综上所述,瑞芯微RK3576凭借其卓越的多屏支持、强大的多摄像头接入能力和高效的低功耗表现
    发表于 10-29 16:41

    机器人竞技幕后:磁传感器芯片激活 “精准感知力”

    故障率从 15% 降至 3% 以下。随着磁隧道结 (MTJ) 等新型技术成熟,下代磁传感器有望实现纳米级精度、皮秒级响应速度,或使机器人 “高速竞速” 最高速度提升 40%;柔性磁传感器研发
    发表于 08-26 10:02

    工业机器人的特点

    机器人是关键。工业互联网是通过端上的数据传输,经过大数据分析和云计算处理,再进行智能化决策的整个过程,其中端的数据传输是基础。工业互联网的端包括机器人、传感器等
    发表于 07-26 11:22

    云深处科技利用Arm架构打造AI机器人

    设想未来,机器人能像动物一样敏捷地穿越崎岖地形,处理危险或重复性的任务,例如检查受损电线或搜寻灾后废墟,人类无需身涉险境。云深处科技 (DEEP Robotics) 的四足
    的头像 发表于 07-03 14:40 1568次阅读

    南京工业大学:仿生触觉传感系统让机器人拥有人类指尖”般的细腻感知

      想象下,未来的机器人不仅能灵活抓取物体,还能像人类一样感知丝绸的顺滑、砂纸的粗糙,甚至区分不同面料的细微纹理。这切的关键在于“
    的头像 发表于 06-14 17:32 1047次阅读
    南京工业大学:仿生<b class='flag-5'>触觉</b>传感系统让<b class='flag-5'>机器人</b><b class='flag-5'>拥有</b>“<b class='flag-5'>人类</b>指尖”般的细腻感知

    明远智睿SSD2351开发板:语音机器人领域的变革力量

    通过网络连接云端服务器进行快速检索和分析,然后利用语音合成技术答案以自然流畅的语音反馈给用户。同时,借助开发板的网络连接功能,语音机器人还可以与后台管理系统进行数据交互,实时更新知识库和优化服务策略
    发表于 05-28 11:36

    盘点#机器人开发平台

    地瓜机器人RDK X5开发套件地瓜机器人RDK X5开发套件产品介绍 旭日5芯片10TOPs算力-电子发烧友网机器人开发套件 Kria KR260机器人开发套件 Kria KR260-
    发表于 05-13 15:02

    从感知到运控:具身智能机器人控制器的双脑协同设计与场景适配

    ,则是协调全身的“大脑”与“小脑”,既要像大脑一样思考决策,又要像小脑一样精准控制运动。作为具身智能机器人的核心枢纽,控制器直接决定了它能否在复杂场景中“像
    的头像 发表于 05-11 17:42 1226次阅读
    从感知到运控:具身智能<b class='flag-5'>机器人</b>控制器的双脑协同设计与场景适配