0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

北京大学等提出HandTrackNet:点云序列中手物交互的位姿追踪与重建

CVer 来源:北京大学前沿计算研究中 2023-03-02 13:52 次阅读

导 读

本文是 AAAI 2023 Oral 入选论文 Tracking and Reconstructing Hand Object Interactions from Point Cloud Sequences in the Wild 的解读。本论文由北京大学王鹤研究团队与北京通用人工智能研究院、弗吉尼亚理工大学、斯坦福大学、清华大学、哥伦比亚大学合作,针对追踪并重建一段输入点云序列中的手和物体这一任务进行了研究。

我们首次提出了一个基于点云的手部关节追踪网络 HandTrackNet,并设计了一套完整的算法来完成手和物体追踪与重建这一具有挑战性的任务。此外,为了获得更多样且精准的数据,我们在仿真器中生成了大量手物交互的数据,并模拟了深度相机的拍摄原理,以获得接近真实世界噪声分布的深度数据。仅用仿真数据进行训练,我们的方法可以很好地泛化到未见过的真实场景测试数据上,以较快的速度(9FPS)取得远超前人工作的精度。

57f4146a-b077-11ed-bfe3-dac502259ad0.png

论文链接:

http://arxiv.org/abs/2209.12009

项目主页:

https://pku-epic.github.io/HOtrack

代码地址:

https://github.com/PKU-EPIC/HOTrack

5820cfa0-b077-11ed-bfe3-dac502259ad0.gif

58e29432-b077-11ed-bfe3-dac502259ad0.gif

59a4dad8-b077-11ed-bfe3-dac502259ad0.gif

图1. HO3D 数据集上的效果展示图。左起依次为输入点云,输出重建结果,另一个视角的输出,以及输出与 RGB 叠置的效果。可以看到,我们的算法对手物交互中的遮挡问题有很好的鲁棒性。

5ae60ad4-b077-11ed-bfe3-dac502259ad0.gif

5b7c27c6-b077-11ed-bfe3-dac502259ad0.gif

5bbe4a7a-b077-11ed-bfe3-dac502259ad0.gif

图2. DexYCB 数据集上的效果展示图。

01

引 言

手和物体的交互作为人类与复杂现实场景交互的主要途径,在现实生活中无处不在。作为感知人类与物体交互的主要方法,位姿追踪和重建人手与物体是两个至关重要的研究课题,可以实现广泛的应用,包括人机交互[1],增强现实[2],以及让机器人从人类的演示中学习相应技能(如抓取和操纵等[3])。

近年来,随着深度学习的发展,越来越多基于深度学习的工作涌现出来,研究如何从单帧信息(RGB 图片[4]或点云[5])中去感知手和物体,重建他们的几何形状或是估计他们的位姿,但是这类方法往往无法利用上视频相邻帧之间的连续性。另一方面,深度学习非常依赖数据,而对真实场景视频中的手和物体去准确标注三维几何形状及位姿是一件非常困难且成本极大的事情,现有的数据集如 DexYCB[6]和 HO3D[7]都规模不大且包含的物体数量少(不超过20个不同物体),用这样的数据难以训练出能够泛化到未见过的手和物体的模型。

因此,在这个工作中,我们关注于这样一个非常有挑战的任务——在不用任何真实数据作训练的前提下,对自然条件下的点云序列,联合追踪并重建人手和物体。我们的任务设定如下所述:给定一个包含已分割的手和物体的深度点云序列,还有初始的手部位姿和物体位姿,我们的算法需要去重建手和物体的几何形状,并以一个在线的方式(即对于第帧的预测只能利用当前帧和过去帧的信息,不能利用未来帧的信息)对他们的位姿进行追踪。我们选择点云这一模态作为输入而非图片是因为他们具有更加准确的三维结构,便于我们感知手和物体的位姿,并且具有更小的歧义性。

为了实现这一目标,首先,为了缓解数据问题,我们提出了一套流程来合成手和物体交互的仿真数据集。该数据集拥有非常高的多样性,无论是手的形状、物体的形状,还是两者的交互姿势;此外,得益于仿真环境的优势,这些数据带有免费的位姿和形状标注。为了最小化仿真和现实的领域差异,我们利用 DDS[8]提出的基于结构光的深度传感器模拟器,生成带有真实传感器噪声的仿真点云。

除此之外,我们首次提出了一个基于点云的手部姿势跟踪网络,HandTrackNet,以追踪帧间手部关节的运动。HandTrackNet 建立在 PointNet++[9]的基础上,基于上一帧的预测来估计当前帧手部关节位置的变化。相较于单帧回归的算法,这样做压缩了输出数据的分布空间,简化了回归任务,增强了时序上的连续性。此外,HandTrackNet 会从上一帧的预测中计算手的全局位姿,并利用手的全局位姿来将当前帧的输入点云变换到一个规范化的坐标系内,这极大地压缩了输入数据的分布空间,进一步简化了回归任务。在训练过程中,HandTrackNet 会学习修正随机的手部关节扰动,因此不会过拟合到任何时序轨迹上。

最后,为了更好的解决手和物体遮挡带来的歧义性,我们进一步利用基于优化的方法来推理手和物体之间的空间关系,获取物理上更加真实的预测。我们先将追踪到的手部关节位置转化为 MANO[10]这一参数化模型的表示,得到手部几何的重建,然后根据手和物体交互的先验构建几个能量函数,用于进一步调整手的位姿,从而产生更加符合物理规律、更加真实的手部位姿。

通过充分的实验,我们证明了我们的方法在从未见过的真实世界手和物体交互数据集 HO3D[7]和 DexYCB[6]中的有效性。我们的方法在手和物体的位姿追踪精度上明显优于之前的方法,并显示出良好的追踪鲁棒性和极强的泛化性。整个算法能够以交互式帧率(约9FPS)进行在线跟踪和重建。

02

方法简介

5bfe106a-b077-11ed-bfe3-dac502259ad0.png

图3. 我们生成的 SimGrasp 数据集。

首先,为了应对数据不足的问题,我们在仿真环境中造了一个手和物体交互的数据集 SimGrasp,包含超过450个不同的物体和100个不同大小的手,一共生成了1810段视频,每段视频有100帧。我们首先使用 GraspIt[11]来生成了一些手和物体呈持握状态的数据,然后将手往手背方向挪一定距离,并通过对位姿插值的方式获取动态抓取的视频。为了减少 Sim2real 的巨大差异,我们重新实现了 DDS 算法[8],基于结构光深度相机的原理,在仿真环境中模拟了真实相机点云会产生的噪声。

5c4eace6-b077-11ed-bfe3-dac502259ad0.png

图4. HandTrackNet 结构示意图。

在方法上,我们首次提出了一个基于点云的手部关节追踪网络 HandTrackNet,该网络接收当前第帧的手部点云和上一帧预测的手部关节位置作为输入,并对二者进行全局姿势规范化处理。然后,它利用 PointNet++[9]从规范化的手部点云中提取特征,并使用每个关节进行近邻查询和特征传递,最后用一个多层线性感知机来回归并更新关节位置。

其中,主要的创新部分在于利用上一帧预测的关节位置来进行全局姿势规范化上。前人的工作[5]发现手的全局位姿的多样性会给网络预测关节位置带来很大的困难,而如果能够设计比较好的全局位姿规范化方法,使得所有的输入点云都能被变换到同一个规范位姿下(例如手心朝向轴,指尖指向轴),就能大大降低学习难度,提升泛化能力。注意到,按照之前定义的手部规范位姿,规范化的手部点云的第一特征向量应该平行轴,第二特征向量应该平行轴,因此前人工作[5]中大多使用 PCA 来获取手部点云的外包围盒,并利用上述特性进行手的全局姿势规范化。然而,这样的做法存在的缺陷是当手被严重遮挡时,获取的外包围盒无法很好地反应真实手部全局位姿,因此不适用于手和物体交互的场景。

而我们则是注意到,手部指根处的关节点相对位置无论手指怎么动都是基本不变的,因此我们可以用 SVD 求解上一帧指根关节位置相对于预定义的规范位姿下的指根位置的平移和旋转,结合视频的连续性,利用这一平移和旋转去规范化当前帧的手部点云输入。

5c729552-b077-11ed-bfe3-dac502259ad0.png

图5. 完整流程图。第0帧,我们会重建手和物体的几何(如虚线所示);后续每一帧,我们会分别预测物体的位姿和手的位姿,并通过优化来进一步修复手的位姿。我们还可以每10帧更新一次手和物体的几何。

利用 HandTrackNet 获取手部关节位置后,我们利用一个简单的多层感知机网络 IKNet 将手部关节位置转化成了手部各关节角度,将作为 MANO 这一常用的手部参数化模型的输入,结合第0帧通过优化获得的手部形状参数,就可以得到手的完整三维重建了。而物体这一支,我们在第0帧利用 DeepSDF[12]的技术来根据观察到的点云去重建类别级未知物体的几何形状,并在之后每一帧通过优化的办法来解算物体位姿。最后,我们还使用了一个联合优化的模块,使用手与物体不会互相穿透、手指会贴近物体表面等条件作为能量函数来优化手的位姿,获取更符合物理规律、更真实的手物交互。我们还可以每隔10帧更新一次手和物体的几何,降低初始化时的几何误差对后续追踪的影响。

03

实验结果

我们仅仅使用我们合成的仿真数据集 SimGrasp 进行训练,在不使用任何真实数据进一步训练的情况下,直接在 HO3D[7]和 DexYCB[6]这两个具有挑战性的真实数据集上进行测试。相较于之前基于单帧预测的工作HandFoldingNet[13],A2J[14]和 VirtualView[15]以及基于追踪的工作 Forth[16],我们的方法在平均关节位置误差这项指标上在两个数据集中分别能显著提升6mm 和3mm 以上。

5c91e894-b077-11ed-bfe3-dac502259ad0.png

图6. 手部关节追踪实验结果。MPJPE 指平均关节位置误差,PD 指手和物体最大穿透深度,DD 指手和物体在接触时手指到物体上最近点的平均距离。

物体追踪方面,虽然之前的工作 CAPTRA[17]在验证集上能获得更好的表现,但是在真实数据的测试集上,我们基于优化的方法能够一致地超过它,证明了我们方法具有更强的泛化能力。

5cb6a63e-b077-11ed-bfe3-dac502259ad0.png

图7. 物体追踪实验结果。5度5cm 指旋转误差小于5度且平移误差小于5cm 的百分比,10度10cm 同理,CD 指带位姿的重建物体和标注物体的倒角距离(Chamfer distance)。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4458

    浏览量

    90764
  • 仿真器
    +关注

    关注

    14

    文章

    988

    浏览量

    82998
  • 人工智能
    +关注

    关注

    1776

    文章

    43899

    浏览量

    230645
  • 点云
    +关注

    关注

    0

    文章

    58

    浏览量

    3725

原文标题:AAAI 2023 Oral | 北京大学等提出HandTrackNet:点云序列中手物交互的位姿追踪与重建

文章出处:【微信号:CVer,微信公众号:CVer】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    北京大学高性能计算综合能力竞赛圆满结束

    近日,第一届北京大学高性能计算综合能力竞赛(HPCGame)举办了闭幕式暨颁奖典礼。在全体参赛选手的积极参与和精彩角逐下,本届共有来自87所高校,890名选手报名参赛。RISC-V新架构奖获奖选手
    的头像 发表于 04-14 08:34 136次阅读
    <b class='flag-5'>北京大学</b>高性能计算综合能力竞赛圆满结束

    百川智能与北京大学将共建通用人工智能联合实验室

    近日,百川智能与北京大学携手合作,共同签署了“北大——百川通用人工智能联合实验室”的共建协议,标志着双方在人工智能领域迈出了坚实的合作步伐。
    的头像 发表于 03-21 11:45 402次阅读

    北京大学首次硬件实现电容耦合的VO2相变振荡动力学计算系统

    北京大学集成电路学院杨玉超教授课题组首次硬件实现了电容耦合的VO2相变振荡动力学计算系统。
    的头像 发表于 02-28 11:28 377次阅读
    <b class='flag-5'>北京大学</b>首次硬件实现电容耦合的VO2相变振荡动力学计算系统

    多模微环谐振器中的多功能光子分子开关研究

    近日,北京大学电子学院王兴军、舒浩文团队提出集成微波光子宽频段精细信号处理解决方案,通过操控波导内空间模式的耦合关系来调控谐振峰劈裂的状态;
    的头像 发表于 02-26 09:28 338次阅读
    多模微环谐振器中的多功能光子分子开关研究

    TDK中国荣获“2023中国年度优选雇主”

    本届最佳雇主评选活动联合北京大学社会调查研究中心、北京大学国家发展研究院、HR公会等多家专业机构参与组织、评审,以“新动能·新职场”为主题,
    的头像 发表于 02-21 13:36 313次阅读
    TDK中国荣获“2023中国年度优选雇主”

    百度生成式AI如何助力医疗应用升级?

    1月6日,小寒节气来临之日,2024年北京大学医院管理、医疗产业、投融资领军人才研修班(以下简称:“研修班”)开学典礼正式在“燕园”举办。北京大学政府管理学院院长燕继荣,百度集团资深副总裁、大健康事业群(HCG)总裁何明科等出席开学典礼,何明科作为导师代表发表致辞。
    的头像 发表于 01-10 09:30 1340次阅读

    北京大学其鲁谈:电池新材料的当下和未来

    电池“达沃斯”-电池百人会12月5日讯“我认为我国已经跨入新的锂电池应用时代,就是储能时代。”北京大学教授、中关村新型电池技术创新联盟理事长其鲁表示,“从明年开始,储能时代就要从中国开始走向世界。但是,有几个问题如果不能解决好,可能也会产生很多起起伏伏。”
    的头像 发表于 12-08 10:00 489次阅读

    北大计算中心成立60周年,未名二号高性能计算集群暨华为全球样板点上线

    [中国,北京,2023年11月13日] 今日,为纪念北京大学计算中心成立60周年,“高校数字化转型创新发展高峰论坛-算力新时代下高性能计算平台的发展与趋势分论坛”在北京大学举行。论坛期间,北京
    的头像 发表于 11-14 09:10 272次阅读
    北大计算中心成立60周年,未名二号高性能计算集群暨华为全球样板点上线

    东科与北京大学成立第三代半导体联合研发中心

    9月15日,东科半导体(安徽)股份有限公司与北京大学共同组建的第三代半导体联合研发中心正式揭牌成立。由北京大学科学研究部谢冰部长及马鞍山市委书记袁方共同为北大-东科联合研发中心揭牌。图左为袁方书
    的头像 发表于 09-19 10:07 519次阅读
    东科与<b class='flag-5'>北京大学</b>成立第三代半导体联合研发中心

    CCF HPC China 2023 | 超融合以太加持:北京大学高性能计算平台将迎来大提速

     8月25日,在青岛举行的全国高性能计算学术年会大会(CCF HPC China 2023)上,2023华为高性能计算解决方案分论坛同步举办。来自北京大学计算中心工程师付振新分享了“北京大学高性能
    的头像 发表于 08-25 18:10 501次阅读
    CCF HPC China 2023 | 超融合以太加持:<b class='flag-5'>北京大学</b>高性能计算平台将迎来大提速

    圣邦副总谭磊应邀至北大带来主题为“创新服务于应用”的报告

    圣邦快讯 2023年7月3日,圣邦微电子副总裁谭磊应邀参加北京大学集成电路学院、集成电路高精尖创新中心、北京大学国家集成电路产教融合创新平台、集成电路科学与未来技术北京实验室、后摩尔时代微纳电子学
    的头像 发表于 07-06 10:05 526次阅读

    北京大学在压电MEMS领域取得重要进展:让一块压电陶瓷实现了两个马达的驱动功能!

    近日,北京大学董蜀湘教授课题组在压电MEMS领域独辟蹊径:发明了一种压电马达,只需一个压电陶瓷,就可产生两个对称驱动和实现两个对称运动输出功能。而传统上,需要利用两个压电陶瓷(定子)来驱动两个动子和产生对称运动输出。
    的头像 发表于 06-27 15:15 610次阅读
    <b class='flag-5'>北京大学</b>在压电MEMS领域取得重要进展:让一块压电陶瓷实现了两个马达的驱动功能!

    北京大学2023年湾区青年企业家研修班一行赴软通动力参观交流

    6月13日,北京大学2023年湾区青年企业家综合素质能力提升研修班一行50余人,走进软通动力信息技术(集团)股份有限公司,参观了软通动力数字创新中心及北京智能综合服务大厅,并围绕企业数字化建设
    的头像 发表于 06-14 16:55 407次阅读

    CASAIM与北京大学达成科研合作,基于3D打印技术加快力学性能试验分析

    近期,CASAIM与北京大学达成科研合作,基于3D打印技术进行力学性能试验分析,快速制造各种力学测试样件,从而实现高效的力学结构设计和力学测试。 北京大学是我国教育部直属的全国重点大学,位列
    的头像 发表于 06-09 11:58 481次阅读
    CASAIM与<b class='flag-5'>北京大学</b>达成科研合作,基于3D打印技术加快力学性能试验分析

    北京大学深圳研究生院&amp;知存科技联合实验室揭牌,共谋存算一体化研究

    王绍迪,北京大学信息工程学院院长田永鸿、副院长杨玉超以及学院相关负责人,相关企业代表参加会议。会议由田永鸿主持。 活动现场 田永鸿主持 杨震表示,北大深研院深刻领会到科技创新要聚焦自立自强的时代要求,提出 “问题导向、南北联动
    的头像 发表于 06-07 17:25 766次阅读
    <b class='flag-5'>北京大学</b>深圳研究生院&amp;知存科技联合实验室揭牌,共谋存算一体化研究