0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

CVPR 2023最佳论文候选出炉!

新机器视觉 来源:新智元 2023-05-19 10:11 次阅读

CVPR 2023举办在即。

今天,官方公布了12篇获奖论文候选。(占接受论文的0.51%,占提交论文的0.13%)

7fa79ab6-f5b6-11ed-90ce-dac502259ad0.png

根据官网上统计数据,本次CVPR一共接受论文9155篇,录用2359篇,接受率为25.8%。

其中,235篇被评为Highlights。(占接受论文的10%,占提交论文的2.6%)

1. Ego-Body Pose Estimation via Ego-Head Pose Estimation

作者:Jiaman Li,Karen Liu,Jiajun Wu

机构:斯坦福大学

7fc9f82c-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2212.04636.pdf

本文中,研究人员提出了一种新的方法,即通过自我-头部姿势估计的自我身体姿势估计(EgoEgo),它将问题分解为两个阶段,由头部运动作为中间表征来连接。EgoEgo首先整合了SLAM和一种学习方法,以估计准确的头部运动。

随后,利用估计的头部姿势作为输入,EgoEgo利用条件扩散,以产生多个可信的全身运动。这种头部和身体姿势的分离消除了对配对自我中心视频和三维人体运动的训练数据集的需要,使研究人员能够分别利用大规模自我中心视频数据集和运动捕捉数据集。

此外,为了进行系统的基准测试,研究人员开发了一个合成数据集AMASS-Replica-Ego-Syn(ARES),其中包括成对的自我中心视频和人类运动。在ARES和真实数据上,研究人员的EgoEgo模型的表现明显优于目前最先进的方法。

7fe92db4-f5b6-11ed-90ce-dac502259ad0.png

2. 3D Registration with Maximal Cliques

作者:Xiyu Zhang,Jiaqi Yang,Shikun Zhang,Yanning Zhang

3. OmniObject3D: Large Vocabulary 3D Object Dataset for Realistic Perception, Reconstruction and Generation

作者:Tong Wu,Jiarui Zhang,Xiao Fu,Yuxin WANG,Jiawei Ren,Liang Pan,Wenyan Wu,Lei Yang,Jiaqi Wang,Chen Qian,Dahua Lin,Ziwei Liu

机构:上海人工智能实验室,香港中文大学,商汤,香港科技大学,南洋理工大学

801f6794-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2301.07525.pdf

由于缺乏大规模的真实扫描三维数据库,最近在三维物体建模方面的进展大多依赖于合成数据集。

为了促进现实世界中3D感知、重建和生成的发展,研究人员提出了OmniObject3D,一个具有大规模高质量真实扫描3D物体的大型词汇3D物体数据集。

OmniObject3D有几个吸引人的特性:1)超大数据量:它包括190个日常类别的6000个扫描物体,与流行的二维数据集(如ImageNet和LVIS)共享共同的类别,有利于追求可通用的三维表征。2)丰富的注释:每个三维物体都由二维和三维传感器捕获,提供纹理网格、点云、多视角渲染图像和多个真实捕获的视频。3) 真实的扫描:专业扫描仪支持高质量的物体扫描,具有精确的形状和逼真的外观。

利用OmniObject3D提供的广阔探索空间,研究人员精心设置了四个评估基准:a)强大的3D感知,b)新视角合成,c)神经表面重建,以及d)3D物体生成。

80324364-f5b6-11ed-90ce-dac502259ad0.png

4. MobileNeRF: Exploiting the Polygon Rasterization Pipeline for Efficient Neural Field Rendering on Mobile Architectures

作者:Zhiqin Chen,Thomas Funkhouser,Peter Hedman,Andrea Tagliasacchi

机构:谷歌,西蒙菲莎大学,多伦多大学

80b9a34a-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2208.00277.pdf

神经辐射场(NeRFs)在从新的视角合成三维场景的图像方面表现出惊人的能力。然而,它们依赖的专有体积渲染算法,与广泛部署的图形硬件的能力并不匹配。

本文介绍了一种新的基于纹理多边形的NeRF表征方法,它可以用标准渲染管道有效地合成新的图像。NeRF被表征为一组多边形,其纹理代表二进制不透明度和特征矢量。用Z型缓冲器对多边形进行传统的渲染,得到的图像在每个像素上都有特征,这些特征被运行在片段着色器中的一个小型的、依赖于视图的MLP解释,以产生最终的像素颜色。

这种方法使NeRF能够用传统的多边形光栅化管道进行渲染,它提供了大规模的像素级并行性,在包括手机在内的各种计算平台上实现了足以进行交互的帧率。

80d15a1c-f5b6-11ed-90ce-dac502259ad0.png

5. DynIBaR: Neural Dynamic Image-Based Rendering

作者:Zhengqi Li,Qianqian Wang,Forrester Cole,Richard Tucker,Noah Snavely

机构:谷歌,康奈尔科技校区

81329e4e-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2211.11082.pdf

本文中,研究人员提出了一种基于体积图像的渲染框架,该框架通过以场景运动感知的方式,来聚合附近的视点特征,从而合成新的视点。

研究人员的系统保留了先前方法的优点,即能够对复杂的场景和视点相关的效果进行建模,而且还能够从具有复杂场景动态和无约束相机轨迹的长视频中合成照片般真实的新视点。

结果证明,在动态场景数据集上,新方法比SOTA有明显改进。并且,还能应用于颇具挑战性的运动视频当中,此前的方法在这里都无法产生高质量的渲染。

814eb110-f5b6-11ed-90ce-dac502259ad0.png

6. Planning-oriented Autonomous Driving

作者:Yihan Hu,Jiazhi Yang,Li Chen,Keyu Li,Chonghao Sima,Xizhou Zhu,Siqi Chai,Senyao Du,Tianwei Lin,Wenhai Wang,Lewei Lu,Xiaosong Jia,Qiang Liu,Jifeng Dai,Yu Qiao,Hongyang Li机构:上海人工智能实验室,武汉大学,商汤

817f73b8-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2212.10156.pdf 本文中,研究人员提出了一种全新的综合框架——统一自动驾驶(UniAD)。通过将全栈式的驾驶任务纳入一个网络,该框架可以利用每个模块的优势,并从全局角度为智能体交互提供互补的特征抽象。任务通过统一的查询接口进行通信,从而促进彼此的规划。 研究人员在具有挑战性的nuScenes基准上对UniAD进行了实例化。消融实验显示,新方法在各个方面的性能都大大优于此前的SOTA。

8193c606-f5b6-11ed-90ce-dac502259ad0.png

7. DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation

作者:Nataniel Ruiz,Yuanzhen Li,Varun Jampani,Yael Pritch,Michael Rubinstein,Kfir Aberman机构:谷歌,波士顿大学

81b9f81c-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2208.12242.pdf 在这项工作中,研究人员提出了一种新的「个性化」文本到图像扩散模型的方法。 只需输入少数几张主体的图片,就可以微调预训练的文本到图像模型,使其学会将独特的标识符与特定主体绑定。一旦将主体嵌入模型的输出域,就可以使用独特的标识符在不同场景中合成该主体的新的真实感图像。 通过利用模型中嵌入的语义先验以及新的自生类特定先验保留损失,新的方法使得在各种场景、姿态、视角和光照条件下合成主体成为可能,而这些条件在参考图像中并未出现。

81cd74d2-f5b6-11ed-90ce-dac502259ad0.png

8. On Distillation of Guided Diffusion Models

作者:Chenlin Meng,Robin Rombach,Ruiqi Gao,Diederik Kingma,Stefano Ermon,Jonathan Ho,Tim Salimans机构:斯坦福大学,Stability AI,慕尼黑大学,谷歌

81f97172-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2210.03142.pdf 无分类器指导的扩散模型的一个缺点是,它们在推理时的计算成本很高,因为它们需要评估两个扩散模型,一个类别条件模型和一个无条件模型,需要数十到数百次。 为了解决这一局限性,研究人员提出了一种将无分类器指导的扩散模型提炼成快速采样的模型的方法。 给定一个预先训练好的无分类器指导的模型,首先学习一个单一的模型来匹配合并的条件和无条件模型的输出,然后逐步将该模型提炼成一个需要更少采样步骤的扩散模型。

8210cf5c-f5b6-11ed-90ce-dac502259ad0.png

9. Visual Programming: Compositional visual reasoning without training

作者:Tanmay Gupta,Aniruddha Kembhavi机构:艾伦人工智能研究所

8365bb9c-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2211.11559.pdf 研究人员提出了一种神经符号方法VISPROG,用于解决给定自然语言指令的复杂和组合性的视觉任务。 VISPROG使用大型语言模型的非文本学习能力来生成类似于python的模块化程序,然后执行这些程序以获得解决方案和一个全面的、可解释的理由。 生成的程序的每一行都可以调用几个现成的CV模型、图像处理子程序或python函数中的一个,以产生中间输出。 研究人员在4个不同的任务上展示了VISPROG的灵活性:组合式视觉问题回答、图像对的零点推理、事实知识对象标签和语言引导的图像编辑。 研究人员表示,像VISPROG这样的神经符号方法是一条令人兴奋的途径,可以轻松有效地扩大人工智能系统的范围,为人们可能希望执行的长尾复杂任务提供服务。

8379dd98-f5b6-11ed-90ce-dac502259ad0.png

10. What Can Human Sketches Do for Object Detection?

作者:Pinaki Nath Chowdhury,Ayan Kumar Bhunia,Aneeshan Sain,Subhadeep Koley,Tao Xiang,Yi-Zhe Song机构:萨里大学

83e1e14a-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2303.15149.pdf 草图,具有很强的表现力,本身就能捕捉到主观和细粒度的视觉线索。然而,当前对草图这种先天属性的探索仅限于图像检索领域。 论文中,研究人员尝试开发草图的表现力,而不是目标检测这一基本视觉任务。 研究人员首先对SBIR模型的草图和照片分支进行独立提示,在CLIP的泛化能力的基础上建立高度可泛化的Sketches和照片编码器。 然后,研究人员设计了一个训练范式,使编码器适用于物体检测,这样,检测到的边界款区域的嵌入,与SBIR的草图和照片嵌入对齐。 通过在标准目标检测数据集(如PASCAL-VOC和MS-COCO)上评估最新框架,可见在零样本设置上优于受监督(SOD)和弱监督目标检测器(WSOD)。

83fa4a1e-f5b6-11ed-90ce-dac502259ad0.png

11. Data-driven Feature Tracking for Event Cameras

作者:Nico Messikommer,Carter Fang,Mathias Gehrig,Davide Scaramuzza机构:苏黎世大学

84ae6030-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2211.12826.pdf 现有的事件相机特征跟踪方法要么是人工制作的,要么是从第一性原理中推导出来的,但需要大量的参数调整,且对噪声敏感,由于未建模的效应,无法泛化到不同的场景。 为了解决这些不足,研究人员引入了第一个数据驱动的事件相机特征跟踪器,该跟踪器利用低延迟的事件来跟踪在灰度帧中检测到的特征。 通过直接从合成数据无缝转移到真实数据,新的数据驱动跟踪器在相对特征年龄上超过了现有方法高达120%,同时也实现了最低的延迟。通过使用一种新的自监督策略让跟踪器适应真实数据,这个性能差距进一步增加到130%。

84c1429a-f5b6-11ed-90ce-dac502259ad0.png

12. Integral Neural Networks

作者:Kirill Solodskikh,Azim Kurbanov,Ruslan Aydarkhanov,Irina Zhelavskaya,Yury Parfenov,Dehua Song,Stamatios Lefkimmiatis机构:华为诺亚方舟实验室

8500ef58-f5b6-11ed-90ce-dac502259ad0.png

论文地址:https://openaccess.thecvf.com/content/CVPR2023/papers/Solodskikh_Integral_Neural_Networks_CVPR_2023_paper.pdf 研究人员介绍了一个新的深度神经网络系列。研究人员使用了沿过滤器和通道维度的连续层表征,而不是传统的网络层作为N维权重张量的表示。研究人员称这种网络为积分神经网络(INNs)。 特别是,INNs的权重被表示为定义在N维超立方体上的连续函数,而输入到各层的离散转换也相应地被连续的集成操作所取代。 在推理阶段,连续层可以通过数值积分求积法转换为传统的张量表示。这种表示允许网络以任意大小和各种离散化间隔对积分核进行离散化。 这种方法可用于直接在边缘设备上对模型进行剪枝,而在没有任何微调的情况下,即使在高剪枝率下也只会有小的性能损失。 为了评估提出方法的实际效益,研究人员在多个任务上使用各种神经网络架构进行了实验。 报告结果显示,所提出的INNs实现了与传统的离散对应物相同的性能,同时能够在不进行微调的高剪枝率(高达30%)下保持大致相同的性能(对于Imagenet上的ResNet18,精度损失为2%),而传统剪枝方法在相同条件下的准确性损失65%。

8524edcc-f5b6-11ed-90ce-dac502259ad0.png

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 传感器
    +关注

    关注

    2525

    文章

    48129

    浏览量

    740173
  • SLAM
    +关注

    关注

    22

    文章

    390

    浏览量

    31592
  • 数据集
    +关注

    关注

    4

    文章

    1179

    浏览量

    24356

原文标题:重磅!CVPR 2023最佳论文候选出炉!

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    ISS建议高通选出四名候选人与博通谈判出售

    代理咨询公司Institutional Shareholder Services Inc(ISS)建议高通与博通谈判出售事宜,并在周五晚些时候发布的报告中建议高通股东,投票选出博通在3月6日举行
    的头像 发表于 02-18 20:48 5915次阅读

    高工产品及论文大赛火热报名中~~~~~~~~

    ,只要你喜欢玩技术都可以参加。大赛的作品分为论文和产品设计两种,参赛选手提交论文或提交产品设计或同时提交论文和产品设计。大赛专家团将在候选作品中评出十个
    发表于 07-30 10:27

    CVPR2019一共收到5165篇有效投递论文,在线编辑器一度崩溃!

    由于CVPR 2019截稿日将近,众多投稿人都在抓紧最后的时间修改提交论文,在线论文编辑网站Overleaf一度不堪重负,宕机无法访问,Twitter上有投稿的小伙伴发出感叹,以后再投稿顶会
    的头像 发表于 11-19 09:25 9053次阅读

    ICLR 2019最佳论文日前揭晓 微软与麻省等获最佳论文奖项

    ICLR 2019最佳论文日前揭晓。来自微软研究院、加拿大蒙特利尔学习算法研究所 (MILA)和来自麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)夺得本次大会的最佳论文
    的头像 发表于 05-11 09:10 2195次阅读

    CVPR 2019最佳论文公布了:来自CMU的辛书冕等人合作的论文获得最佳论文

    最佳学生论文授予了加州大学圣巴巴拉分校、微软研究院、杜克大学的Xin Wang, Qiuyuan Huang等人合作的论文Reinforced Cross-Modal Matching
    的头像 发表于 06-23 08:18 4341次阅读

    2019年CVPR有哪些糟糕的论文?

    此外,TA认为AI领域的论文风格过于单一,思想严重雷同。最后,TA还批评了AI领域一个很不好的现象,就是大量本科生进入领域发表论文并且成为风气:
    的头像 发表于 07-13 08:06 3799次阅读
    2019年<b class='flag-5'>CVPR</b>有哪些糟糕的<b class='flag-5'>论文</b>?

    62篇论文入选十年来最难CVPR,商汤研究再创佳绩

    根据官方数据,本届CVPR大会共收到6656篇投稿,接收论文1470篇,录用率约22%,低于ICCV 2019论文录用率(25%),为十年以来CVPR
    的头像 发表于 05-12 14:42 2368次阅读

    ICLR 2021杰出论文出炉 让我们看看前八位优秀论文有哪些

    ICLR 2021杰出论文出炉今年共有2997篇投稿,接收860篇,最后共有8篇获得杰出论文奖。 这8篇论文中,谷歌成最大赢家,共有4篇论文
    的头像 发表于 04-13 16:57 3293次阅读
    ICLR 2021杰出<b class='flag-5'>论文</b>奖<b class='flag-5'>出炉</b> 让我们看看前八位优秀<b class='flag-5'>论文</b>有哪些

    CVPR 2021华为诺亚方舟实验室发表30篇论文 |CVPR 2021

    一年一度的计算机视觉顶会IEEE计算机视觉及模式识别大会CVPR录用结果最近公布。据悉,今年CVPR投稿量与论文接收量相对往年继续上升,有...
    发表于 01-25 18:24 1次下载
    <b class='flag-5'>CVPR</b> 2021华为诺亚方舟实验室发表30篇<b class='flag-5'>论文</b> |<b class='flag-5'>CVPR</b> 2021

    创造历史!商汤联合团队斩获CVPR最佳论文,推出首个“感知决策一体化”自动驾驶通用大模型

    一篇最佳论文,一篇最佳论文候选,共计54篇论文被接收 ,商汤科技及联合实验室交出
    的头像 发表于 06-22 06:15 253次阅读
    创造历史!商汤联合团队斩获<b class='flag-5'>CVPR</b><b class='flag-5'>最佳</b><b class='flag-5'>论文</b>,推出首个“感知决策一体化”自动驾驶通用大模型

    中国团队包揽CVPR 2021弱光人脸检测挑战赛前三名!高分论文已公开播

    来源:CVPR 2021 UG2+ 编辑:好困 【新智元导读】中国团队包揽CVPR 2021 UG2+挑战赛弱光人脸检测赛道前三,其中TAL-ai更是以74.89的高分夺得第一。 CVPR作为是全球
    的头像 发表于 07-02 15:35 350次阅读
    中国团队包揽<b class='flag-5'>CVPR</b> 2021弱光人脸检测挑战赛前三名!高分<b class='flag-5'>论文</b>已公开播

    CVPR 2023 | 完全无监督的视频物体分割 RCF

    TLDR: 视频分割一直是重标注的一个 task,这篇 CVPR 2023 文章研究了完全不需要标注的视频物体分割。仅使用 ResNet,RCF模型在 DAVIS16/STv2/FBMS59 上提升
    的头像 发表于 07-16 20:45 324次阅读
    <b class='flag-5'>CVPR</b> <b class='flag-5'>2023</b> | 完全无监督的视频物体分割 RCF

    FPL 2023最佳论文奖!

    团队共同完成的论文《Co-ViSu: a Video Super-Resolution Accelerator Exploiting Codec Information Reuse》获得FPL2023最佳
    的头像 发表于 09-19 17:55 442次阅读
    FPL <b class='flag-5'>2023</b><b class='flag-5'>最佳</b><b class='flag-5'>论文</b>奖!

    中科驭数联合处理器芯片全国重点实验室获得FPL 2023最佳论文奖!

    Information Reuse》获得FPL2023最佳论文奖。该项工作由鄢贵海指导完成,作者包括樊海爽、吴婧雅、卢文岩、李晓维。论文第一作者樊海爽受邀在会上做口头报告。 ▲ 《C
    的头像 发表于 09-20 14:58 590次阅读
    中科驭数联合处理器芯片全国重点实验室获得FPL <b class='flag-5'>2023</b><b class='flag-5'>最佳</b><b class='flag-5'>论文</b>奖!

    天合光能获评PV Tech 2023最佳ESG表现光伏公司

    近日,PV Tech年度榜单——2023最佳ESG表现光伏公司新鲜出炉。天合光能凭借在ESG领域的建树,特别是在环境、健康、绿色等事关人类福祉的重大议题上的行动力,入选2023
    的头像 发表于 01-19 16:51 324次阅读