0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

MIT研究人员开发出一种具有预测性人工智能的机器人

DPVg_AI_era 来源:lq 2019-06-23 08:21 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

摸一摸就知道长什么样、看一看就知道摸着是什么感觉,你以为我说的是人?不,是AI。MIT研究人员开发出一种具有预测性人工智能机器人,它可以通过触摸来学习“看”,通过“看”来学习感觉,李昀烛和朱俊彦这两位大神参与了此项研究。

我们人类可以通过简单地触摸来轻松地判断物体的外形,这完全归功于我们的触觉,它使我们具备了这种能力。此外,我们当然也可以通过观察物体来确定它的感受。

但做同样的事情对于机器来说可能是困难的,这也是一个巨大的挑战。即使是被编程有感官的机器人也无法做到这一点,它们不能把这些触觉信号互换使用。

现在,麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员已经开发出一种具有预测性人工智能(AI)的机器人,它可以通过触摸来学习“看”,通过“看”来学习感觉。

强强联合,必出精品

在细讲这篇论文之前,先来给大家隆重介绍一下这个研究团队——均来自MIT CSAIL,一作是MIT CSAIL博士、曾经的北大学神李昀烛,二作是即将在CMU担任助理教授、曾经的清华学神朱俊彦。

李昀烛

李昀烛是CSAIL的二年级博士生,他的研究领域是计算机视觉机器学习和机器人技术,尤其是基于深度学习的机器人动力学建模和多模态感知。他本科毕业于北京大学,本科期间参加北京大学和斯坦福大学的多个实验室研究,并以第一作者身份发表多篇计算机视觉和机器学习顶级会议论文。

朱俊彦

朱俊彦目前是CSAIL的一名博士后研究员,他将于2020年秋季回到CMU担任助理教授。朱俊彦主要从事计算机视觉、计算机图形和机器学习的研究。他毕业于加州大学伯克利分校,2012 年获得清华大学计算机科学系的工学学士学位,在 CMU 和 UC Berkeley 经过 5 年学习后,于 2017 年获得 UC Berkeley 电气工程与计算机科学系的博士学位。(参见:【AI新星耀名校】陈天奇、朱俊彦、金驰加盟CMU、普林斯顿)

李昀烛和朱俊彦曾经合作多次,最近最近爆火的MIT十美元“灭霸”手套也是二人合作完成的。这次又强强联合,会出怎样的精品呢?接下来看看这项新研究。

这项研究做了什么?

研究团队使用KUKA机器人手臂并添加了一个名为GelSight的特殊触觉传感器,该传感器之前由Edward Adelson领导的另一个麻省理工学院小组设计。

图1.数据采集装置:(a)他们使用一个装备了GelSight传感器的机器人手臂来收集触觉数据,并使用网络摄像头来捕捉对象交互场景的视频。(b)凝胶接触物体的图示。交叉模式预测:在收集到的视觉触觉对的基础上,他们为几个任务训练了交叉模式预测网络:(c)通过视觉学习感知(视觉→触摸):从相应的视觉输入和参考图像预测触摸信号;(d)通过触摸来学习看(触摸→视觉):通过触摸预测视觉。预测的触摸位置和ground truth位置(用(d)中的黄色箭头标记)具有相似的感觉。

GelSight是一块透明的合成橡胶板,其一面涂有油漆,含有微小的金属斑点。在另一侧,安装摄像头。该团队使用网络摄像头记录了近12000个被触摸的200件物品的视频,包括工具、家用产品、织物等。

图2.物品集。这里他们展示了训练和测试中使用的物品集,包含了食品、工具、厨房用品、织物和文具等各种各样的物品。

然后,研究人员将这些视频分解为静态帧并编制了“VisGel”,这是一个包含超过300万个视觉/触觉配对图像的数据集。这些参考图像随后帮助机器人对物品和环境的细节进行编码。

“通过观察场景,我们的模型可以想象触摸平坦表面或锋利边缘的感觉,” 李昀烛说:“仅通过触摸,我们的模型可以单纯从触觉中预测与环境的相互作用。将这两种感官结合在一起,可以增强机器人的能力并减少我们在涉及操纵和抓取物体的任务时可能需要的数据。”

视觉和触觉演示

视觉到触觉(绿色:Ground Truth;红色:预测)

触觉到视觉(绿色:Ground Truth;红色:预测)

现在,机器人只能识别受控环境中的物体。然而,一些细节,如物体的颜色和柔软度,对于新的AI系统得出结论仍然是个挑战。尽管如此,研究人员希望这种新方法能够为制造环境中的“人-机器人”无缝结合铺平道路,尤其是在缺乏视觉数据的任务中。

该团队新AI系统的下一步是通过收集更多非结构化区域中的数据或使用MIT新设计的传感器手套来构建更大的数据集,以便机器人可以在更多样化的环境中工作。

“这是第一种可以令人信服地在视觉和触摸信号之间进行转换的方法,”加州大学伯克利分校的博士后Andrew Owens说:“像这样的方法有可能对机器人技术非常有用,你需要回答诸如'这个物体是硬还是软?'之类的问题,或者'如果我通过杯柄举起这个杯子,我的握力有多好?'这是一个非常具有挑战性的问题,因为信号是如此不同,而且这个模型已经证明了它的强大能力。”

该论文会在加利福尼亚州长滩举行的CVPR上发表,接下来和大家分享一下这篇论文。

使用跨模态预测方法

研究人员提出了一种从触觉预测视觉的跨模态预测方法,反之亦然。首先,他们将触摸的规模和位置合并到他们的模型中。然后,使用数据再平衡机制来增加结果的多样性。最后,通过从附近的输入帧中提取时间信息,进一步提高了结果的时间一致性和准确性。

图3.跨模态预测模型概述:视觉→触摸模式。

图3显示了一个示例输入输出组合,其中网络将一系列视觉图像和相应的参考作为输入,并将触觉预测合成为输出。同样的框架也可以应用于触摸→视觉。

实验介绍

研究人员使用VisGel数据集对视觉和触觉之间的跨模态预测任务的方法进行了评估。他们报告了评估预测不同方面的多个指标。

对于视觉→触觉预测,测量

(1)使用AMT的感知现实性:结果是否真实,

(2)接触时刻:模型能否预测GelSight传感器是否与物体接触,

(3)标记物的变形:模型是否能够跟踪膜的变形。

对于触摸→视觉方向,他们使用

(1)通过AMT的视觉真实性和

(2)触摸感来评估他们的模型:预测的触摸位置是否与ground truth位置具有相似的感觉。他们还将有关完整参考指标的评估纳入补充资料,并向所有基线提供参考图像,因为它们对于处理比例差异至关重要(图4)。

图4.使用参考图像。使用/不使用参考图像的方法的定性结果。他们用参考图像训练的模型产生了更具视觉吸引力的图像。

图5.跨模态预测结果示例。(a)和(b)显示了他们的模型和基线的视觉→触摸预测的两个例子。(c)和(d)显示触摸→视觉方向。 在这两种情况下,他们的结果看起来既真实又在视觉上类似于ground truth 目标图像。在(c)和(d)中,他们的模型在没有ground truth 位置标注的情况下进行训练,可以准确地预测触摸位置,与完全监督的预测方法相当。

图6.Vision2Touch定量结果。上图:检测触摸了物体表面的错误。使用时间提示可以显著提高性能或他们的模型。下图:根据图像还原触觉点位置的失真错误情况。他们的方法仍然有效。

图7.Vision2Touch检测接触时刻。显示了标记随时间的变形,由所有黑色标记的平均移动决定。较高的变形意味着物体与较大的力接触。上图:三种典型案例,其中(a)所有方法都可以推断出接触时刻,(b)没有时间线索的方法无法捕捉接触时刻,(c)没有时间线索的方法会产生错位结果。下图:我们展示了案例(c)中的几个视觉和触摸框架。 我们的模型具有时间线索可以更准确地预测GelSight的变形。标记的运动为红色显示以获得更好的可视化效果。

表2.Vision2Touch AMT “真实vs虚假”测试。与pix2pix和基线相比,他们的方法可以合成更逼真的触觉信号,既适用于已知物品,也适用于未知物品。

表3. Touch2Vision“感觉相似vs感觉不同”测试。他们的自我监督方法明显优于基线。其精度可与用ground truth 标注训练的完全监督预测方法相媲美。

表4. Touch2Vision AMT“真实vs虚假”测试。 尽管pix2pix在看不见的对象中获得了最高分,但由于mode collapse,它总是产生相同的图像。

讨论

在这项研究中,研究团队提出用条件对抗网络在视觉和触觉之间建立联系。在与世界互动时,人类严重依赖于两种感官模式。他们的模型可以为已知对象和未知对象提供有希望的跨模态预测结果。在未来,视觉-触觉交叉模式连接可以帮助下游视觉和机器人应用,例如在弱光环境中的物体识别和抓取,以及物理场景理解。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2577

    文章

    55505

    浏览量

    793958
  • 机器人
    +关注

    关注

    213

    文章

    31444

    浏览量

    223669
  • 人工智能
    +关注

    关注

    1820

    文章

    50325

    浏览量

    266967

原文标题:触感隔空看到,MIT“灭霸手套”作者李昀烛、朱俊彦又一重磅研究

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何在人工智能机器人领域应用大数据?

    这个事情。简单来分的话有两类:类是机器人载体,不管是实体机器人还是虚拟机器人一种是云端的人工智能
    发表于 11-13 16:37

    未来趋势:人工智能+机器人+互联网三者融合

    。当下的趋势表明,要达到这个目标,未来需要人工智能机器人和互联网三者融合在起。今天大家都在谈论‘互联网+’,相信将来会有更多人看到‘人工智能+’。”北京工业大学电控学院
    发表于 01-25 11:30

    讨论:中国首例“机器人伤人”事件!?来自人工智能的威胁?!

    机器人技术还没有完全达到强人工智能的程度。对于强人工智能很多人相信,但是也有很多人是不相信的。但是小编是相信强人工智能是能够实现的,因为在之前看过
    发表于 11-19 23:51

    分享:人工智能算法将带领机器人走向何方?

    加速推动机器人进入到千家万户。 更包容——机器人人工智能的外在承载体人工智能机器人有方向性的引领,同时,
    发表于 08-16 10:44

    人类与人工智能机器人合作的前景

    的人之所以不会被机器人取代,因为他们总是自己创造工作。  第二是用心提供服务的人。这类永远不会被 人工智能行业云 所取代,因为机器人效率
    发表于 04-16 17:42

    电销机器人成为2018人工智能最热产业之

    ,但是流动也很大,这对企业来讲就是件亟待解决的事情。中绅智能电销机器人的应用让企业在销售的意向客户初筛中得到了广泛的应用,并且用实际行动证明了
    发表于 05-21 15:54

    AI人工智能:零基础入门机器人开发教程

    AI语音智能机器人开发直播:http://t.elecfans.com/live/718.html手把手教你设计人工智能芯片及系统(全阶设计教程+AI芯片FPGA实现+
    发表于 02-26 14:17

    ai人工智能机器人

    的运营成本、人力成本还在不断提高(如:办公场地的租金、员工的工资、社保公积金、节假日福利等)。 如今的智能电话机器人,每天的电话拨打量可达800-1000通,相比人工提高了3-5倍,大大缩短了名单的筛选
    发表于 09-21 11:09

    MIT研究人员开发出新型“光子”芯片

    MIT研究人员开发出一种新型 “光子” 芯片,它使用光而不是电,并且在此过程中消耗相对较少的功率。
    的头像 发表于 06-12 09:23 4805次阅读

    MIT开发出一种为软体机器人设计的新型模拟器

    来自麻省理工学院计算机科学与人工智能实验室的研究人员开发出一种专门为软体机器人设计的新型模拟器,并证明该模拟器能逼真地模拟各种
    发表于 07-10 14:22 2026次阅读

    MIT开发一种配备人工智能机器人 能在线多人游戏中击败人类玩家

    麻省理工学院(MIT)的研究人员开发一种配备了人工智能机器人,该
    发表于 11-21 10:03 1494次阅读

    研究人员开发的可预测宇宙结构的人工智能工具

    现在,在研究人员开发出一种称为“黑暗仿真器”的人工智能工具后,可以在几秒钟内研究宇宙如何产生其空隙和细丝。
    发表于 03-06 10:16 1128次阅读

    研究人员开发出一种新型机器人 通过“吃”金属发电?

    据外媒报道,电池已经为我们服务了几十年,但随着电子设备的不断缩小,它们变得过于笨重和低效。对此,宾夕法尼亚大学的研究人员近日开发出一种新型机器人,它可以通过“吃掉”周围环境中的金属来为
    的头像 发表于 04-15 16:35 3122次阅读

    研究人员已成功研发出一种新型的磁驱动高速软体机器人

    据国内媒体报道,《通讯-材料》最新发表了篇技术研发成果论文,研究人员已成功研发出一种新型的磁驱动高速软体机器人,这种
    的头像 发表于 09-27 10:38 2739次阅读

    研究人员开发一种新型的磁力驱动高速软件机器人

    《通讯-材料》最近发表了篇关于技术研究开发的论文,研究人员成功地开发一种新型的磁力驱动高速
    的头像 发表于 10-10 10:57 3600次阅读