前方请注意,一款机器人正在对你微笑!
该机器人由来自中国的哥伦比亚大学计算机科学专业在读博士生陈博源主导研发,它的名字叫夏娃(EVA)。
陈博源告诉 DeepTech,夏娃的命名源于希伯来语,意为 “生命 “。相关论文已于 5 月 30 日在 ICRA 会议上发表,论文名为《从心而笑:用学习模型驱动机器人脸》Smile Like You Mean It: Driving Animatronic Robotic Face with Learned Models,陈博源担任第一作者。今年 4 月,机器人的早期蓝图也已经在 Hardware-X 上开源。
目前,多数机器人都是静态面孔、或者执行预先设计好的表情,但随着酒店机器人等 C 端产品的普及,面部更加逼真、且能根据不同情景表达多样表情的机器人,也成为科学家们的研究对象。
夏娃的诞生耗时五年左右,陈博源的导师霍德・利普森(Hod Lipson)说:“夏娃的想法在几年前就形成了,当时我和我的学生开始注意到我们实验室里的机器人正用它那塑料的、大大的眼睛盯着我们看。” 有次在杂货店里,他看到一个补货机器人,它带着一顶舒适的手工编织帽。
当时霍德就想,人们通过给机器人设计眼睛、身份或名字,来增加它们的人性化,如果眼睛和衣服都有效,为什么不制造一个拥有超级表情和反应灵敏的人脸机器人呢?
然而说易行难,过去几十年来,机器人的身体都由金属或塑料制成,由于材料过硬导致机身无法像人体组织那样流动和移动。
但是,模仿人类的面部表情,是让机器人实现自适应面部反应的第一步。尽管这类系统具有实际价值,但现有研究主要集中在硬件设计和预先编程的面部表情上,即允许机器人从预定义的集合中选择一个面部表情。
而人类能实现的表情复杂且多样,因此具备该能力的机器人研发仍有一定挑战性。
几年前,夏娃项目的第一阶段启动,最初的夏娃是一个无实体的蓝色半身像。之所以用蓝色,是因为研究者希望避免机器人和人类过于相似,那种设计非常容易导致 “恐怖谷” 效应(Uncanny Valley),该效应指的是对于会威胁到人类存在的事物,人类会产生本能的反感和恐惧。
研究中,该团队给夏娃设计了一款皮肤,其面部柔软而富有表情,还能和人类表情相匹配。使用基于视觉的自我监督学习框架,可把夏娃的学习过程分为生成模型和逆模型,从而实现准确和多样化的面部模仿。
牵动脸部 42 块微小肌肉,表达 6 种基本情绪
具体来说,他们使用尼龙线和马达来牵引夏娃脸上的柔性硅胶脸皮,这种机械结构构成了夏娃脸部的人造 “肌肉”。
凭借不同 “肌肉” 部位的拉伸和收缩,夏娃会表达愤怒、厌恶、恐惧、喜悦、悲伤和惊讶等六种基本情绪。
而通过附着在夏娃皮肤和骨骼不同点上的 42 块微小肌肉,它可表达的表情远超预先编程方法可达到的范围。
创造夏娃的最大挑战,是设计一个足够紧凑的系统。该系统能让它适应人类头骨的范围,同时还能具备足够的功能以产生各种面部表情。
为克服该挑战,陈博源等人使用 3D 打印来制造各种零件,这些零件能和夏娃的头骨无缝集成在一起。结合上面提到的自监督学习系统,可让夏娃的学习过程完全不依赖于任何来自人来的数据集。
经过团队初期的努力,夏娃的微笑、皱眉甚至是不高兴,都会给实验室成员带来情绪反应。
陈博源的导师霍德说:“有一天,当夏娃突然给我一个大大的、友好的微笑时,我正忙着自己的事,我知道这纯粹是机械性的,但我发现自己不由自主地回以微笑。”
夏娃会笑了!接下来,他们要对指导夏娃面部动作的 AI 程序进行编程。编程之后,假如有人来到夏娃身边,它可使用深度学习来 “阅读” 人类表情。
但他们很快意识到,夏娃的面部运动过程过于复杂,因此无法被预定义的规则集控制。为应对该挑战,陈博源和团队使用多个深度学习神经网络,创建出了夏娃的 “大脑”。
该“大脑” 具备两大能力:让夏娃通过大量的随机运动,来了解自己复杂的机械系统能够做出的各种表情;其次,在 “阅读” 人类面孔后能够想象:如果夏娃要模仿同样的表情,自己看起来应该是什么样子的呢?
为了让夏娃知道自己的机械结构和脸部结构之间的对应关系,团队记录下了数小时夏娃在镜头面前随意运动的影像,就像人类在镜子前观看自己一样,夏娃的内部神经网络(逆模型)学会了将肌肉运动、和自己脸部的视频片段进行配对。
这时,夏娃对其自我形象已经具备初步了解,接下来通过另一个深度神经网络(生成模型),它会将自我形象与目标面部表情特征进行匹配。
经过多次迭代和两个神经网络,夏娃最终可以阅读人类的表情,并且对不同的表情进行实时模仿。
夏娃 2.0:设计上做出重大升级
基于夏娃 1.0,陈博源和即将加入其所在实验室攻读博士学位的胡宇航,在本次论文中提出了夏娃 2.0,把此前设计做了重大升级。
据他介绍,夏娃 2.0 由两个子模块组成:面部运动模块和颈部运动模块。
研究中,他们俩使用微型伺服电机来驱动夏娃表面的所有部件,这些部件都基于现成的硬件组件,可以自行 3D 打印或者去网上购买。
夏娃 2.0 还有一个基于学习的通用框架,能让它从视觉观察中学习面部模拟,从而模仿人类的不同表情。
更重要的是,该方法无需依赖人类监督来提供命令,其关键思想是将问题分解为两个阶段:(1) 给定标准化的人类面部特征之后,首先使用生成模型合成具有同样表情的机器人自我图像;(2)然后,利用逆网络输出的电机指令来驱动机器人做出对应表情。
相关实验表明,该方法优于此前基于最近邻搜索的算法、以及从人脸到动作的直接映射方法。此外,夏娃的模仿可视化表明,对于不同的人类对象,该方法可模仿出准确的面部表情。
陈博源介绍称,该研究概括了 12 个人类受试者和近 400 个不同的面部表情。经测试发现,夏娃的响应时间约为 0.18s,实时反应能力较强。
在夏娃 2.0 中,其面部运动模块可以进一步分为颅骨框架、眼睛模块、肌肉模块和颚模块。团队还重新设计了颅骨框架的三维形状,为的是扩大机动空间,让夏娃做更灵活的运动。新的头骨框架,也让其皮肤连接更紧密,面部外观更光滑、更自然。
通过增加一对球关节和三对平行四边形机制,还可确保夏娃 6 自由度的眼球模块可在 ±20◦的水平和垂直范围内自由移动,每个眼球的旋转由两个电机和三个球关节连杆控制。此外,基于人脸的眼睑设计也得到升级。
为了减少肌肉控制噪音,陈博源让每根尼龙绳穿过连接头骨前部、和电机的透明乙烯基管,这样可确保每块肌肉的变形与电机的旋转角度成正比。
我们可以和机器人建立信任吗?
夏娃只是一项实验室设备,它还不能像人类那样使用面部表情,去进行复杂的交流。但是,这种可对各种人体面部表情语言做出反应的机器人研究,将对机器人在工作场所、医院、学校和家庭中发挥重要作用。
陈博源认为,未来机器人与人类的交互只增不减,因此和机器建立信任也变得越来越重要。
概括来说,该团队提出了一种新的软皮肤、以及基于视觉系统的电子机器人脸感知系统,并介绍了一个两阶段的自我监督学习框架人脸模拟。
其实验表明,在各种条件下,两阶段算法均能提高模仿人类面部表情的准确性和多样性,并能实现实时规划,有望给实际应用开辟新的机会。
陈博源表示,模仿——是赋予机器人更复杂技能的重要一步。但是,对于交互式社交机器人来说,生成适当的反应也是必不可少的。
更广泛地说,构建交互式机器人需要对他人情感、欲望和意图进行更高水平的理解。因此对他来说,未来一个有趣的方向是探索机器人的高阶思维。
陈博源生于 1994 年,谈及学习经历,他告诉 DeepTech,其本科就读于吉林大学电子科学与工程学院,大四做毕设时,获得去英国曼彻斯特大学访问的机会。本科毕业后,因为喜欢纽约的艺术气息,申请来到哥伦比亚大学读硕士。
后来在 TedTalk 看到目前导师霍德的演讲,并被后者深深吸引,霍德的演讲曾是 TedTalk 上点击率最高的机器人主题演讲,出于对学术大牛的崇拜,以及刚好项目上有合作,陈博源来到霍德教授组(创意机器实验室)读博士,目前是博士最后一年。
谈及未来就业,他说无论是教职机会和工业界机会,都会考虑一下。至于夏娃的未来,他表示希望不断对软硬件功能升级,使得夏娃可以作为一类研究平台,为教育、医疗领域的认知机器人做出重要贡献。
原文标题:具备6种情绪,还会跟着奥巴马一起笑!26岁吉大毕业生研发软皮肤机器人,已被ICRA 2021接收 | 专访
文章出处:【微信公众号:DeepTech深科技】欢迎添加关注!文章转载请注明出处。
责任编辑:haq
-
机器人
+关注
关注
206文章
27022浏览量
201367 -
AI
+关注
关注
87文章
26418浏览量
264023
原文标题:具备6种情绪,还会跟着奥巴马一起笑!26岁吉大毕业生研发软皮肤机器人,已被ICRA 2021接收 | 专访
文章出处:【微信号:deeptechchina,微信公众号:deeptechchina】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论