0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌的光场技术

传感器技术 来源:传感器技术 作者:传感器技术 2021-01-21 13:41 次阅读

谷歌一直坚信虚拟现实身临其境的力量,但要创建最为逼真的临场感,在VR中展示的内容需要尽可能接近看到的内容。

光场是一种先进的捕捉,拼接和渲染算法。通过为静态捕捉图像生成运动视差和非常逼真的纹理和光照,光场可以向你提供极高质量的临场感。为了展示这种技术的潜力,谷歌曾经在Steam上发行了免费应用“Welcome to Light Fields”,支持HTC Vive,Oculus Rift和WMR头显。

谷歌的光场技术

捕捉和处理光场

对于光场,附近的对象似乎相当靠近你。当你移动头部的时候,它们看起来的变化会很大。远处的对象变化较少,不同对象的光线发射也不同,因此你会得到强烈的暗示,认为自己正身处于3D空间之中。当通过支持位置追踪的VR头显进行浏览时,光场可以根据真实世界中捕获的片段实现真正令人惊叹的VR体验。

这一切的原因在于光场可以记录进入空间的所有不同光线。为了记录它们,谷歌改装了一台GoPro Odyssey Jump相机平台,将其弯曲成16个镜头的垂直弧形并安装在旋转平台上。

左:在发现号航天飞船甲板上拍摄的球形光场延时拍摄视频

右:光场渲染允许我们通过对镜头记录的光线进行采样和插值,并且在球形空间内的任何位置合成新场景视图。

相机平台旋转并录制70厘米球体上的大约1000个外向视角大概需要1分钟。这提供了一个两英尺宽的光线量,而后者决定了顶部空间的大小,亦即用户为探索场景而转动头部的空间。为了向头显渲染视图,谷歌从球体表面上的相机位置采样光线,从而构建从球体内部看到的新视图,并以此匹配用户移动头部的方式。它们在一个自定义数据集文件中对齐和压缩,据小编了解谷歌是通过作为Unity游戏引擎插件的特殊渲染软件读取这个数据集文件。

用光场记录世界

谷歌选择了数个特殊场所来测试他们的光场相机平台。谷歌表示,他们钟爱帕萨迪纳盖博住宅(Gamble House)的亮漆柚木和红木内饰,威尼斯马赛克小屋(Mosaic Tile House)的光泽陶瓷和闪亮,以及格拉纳达山圣斯蒂芬教堂那阳光潋滟的彩色玻璃窗。最重要的是,史密森学会的航空航天博物馆和3D数字化办公室允许谷歌进入NASA的发现号航天飞船,在这个不对外开放的飞行甲板中为我们提供宇航员的视角。最后谷歌录制了一系列的光场,并且实验了眼神接触如何应用于6自由度体验。

VR视频是探索世界的一项光明技术。尽管只是实验,但光场向我们展示了VR体验可以实现的逼真水平 。

VR视频和全景视频的区别

VR视频与全景视频有什么区别?

我们用一张图来说明360度全景视频和VR视频的不同:

全景视频很好理解,就是有别于传统视频单一的观看视角,让人们可以360度自由观看。而VR视频在此基础上,还允许人们在视频里自由移动观看(提供场景中任意位置的360度自由视角)。

全景视频可以是3D的也可以不是,可以通过屏幕观看,也可以带上眼镜观看。而VR视频必须带上头显观看,且必须是3D的。

全景视频是线性播放的,也就是按照时间轴来进行回放的。而VR视频可以允许用户在同一时间,站在不同的位置观看(有点类似科幻电影里时间暂停了,然后观察者在定格的时间和空间里任意移动,观看周围的人物和景物)。

全景视频和VR视频有什么相似之处?

1.都可以是3D的(全景视频也有2D版);

2.都能360度上下、左右旋转观看;

3.具有视觉沉浸感。

那有什么不同呢?

最大区别就是VR视频允许观看者在场景里自由走动观察,但全景视频不行,拍摄机位在哪儿,观看者就必须在哪儿,顶多只能原地360度观看。

如果是一部VR电影,那么传统的“镜头运动、场景切换、Zoom In or Zoom Out”可能都将被取代,由观众来决定镜头位置。你可以把VR视频看成是“3D全景视频+自由移动”。

所以,现在大家所看到的基本都是“伪VR视频”,各大视频网站上标称的VR视频也基本都是360度全景视频。而打着“VR相机”口号行销的其实大部分都是360度全景相机。那么,我们不禁要问,真正的VR视频是什么样呢?

真正的VR视频目前只能通过CG实现

如何才能拍摄出真正的VR视频呢?很遗憾,以现在的技术手段和设备能力还很难实现。所以到目前为止,我们还没有看到过一部真正意义上的VR视频是被实际拍摄出来的。因为一台摄像机只能捕捉一个位置的光线,而要实现场景里的自由移动,需要捕捉场景里任意位置的光线,显然我们无法在场景里安置那么多摄像机,这是矛盾的。现今的谷歌光场技术是否能解决这问题?

那未来有没有可能呢?答案是肯定的。

要拍摄真正意义上的VR视频,我们需要光场摄像机。

什么是光场摄像机?这绝对是一个黑科技,很难用几句话表述清楚。大概意思就是通过矩阵式摄像头(非常非常多的微型摄像头),捕捉和记录周围不同角度射入的光线信号,再利用计算机后期合成出任意位置的图像。

Lytro公司去年发布的360度光场摄像机

Immerge,其内部的数百个镜头和图像传感器分为五个“层”(你可以想象每层都是20部GoPro相机组合在一起),除此之外还配套专用的服务器和编辑工具等。

与传统摄像机不同的是,光场摄像机除了记录色彩和光线强度信息外,还会记录光线的射入方向——这就是“光场”技术的由来。

有了从四面八方射入的光的方向信息,再利用算法,就能对环境进行分析,逆向建模,从而还原出一个三维的环境模型。这和计算机建模(CG)的结果是相似的,只不过CG是人为主观“虚构”模型,而光场摄像机是逆向方式“客观”还原模型。

有了三维模型,计算机便可以实时计算出任意位置的视觉图像,3D+360度全景也没有问题。这就是说,光场摄像机所在的位置拍摄到的景象是真实的,而自由移动位置后看到的景象是通过电脑后期合成的。

Lytro公司坦言目前他们只能做到视角在一定范围的左右和前后移动,要想“看到”物体背面的样子还不行(也许要对反射光进行计算和建模)。所以要实现真正意义上的VR视频,还是电脑建模然后实时渲染输出最简单。

如今所有的VR游戏,都可以看作是VR视频。不仅可以3D显示+360度全景,还可以自由移动,甚至控制时间轴也没有问题。只是,VR视频都用计算机建模了,还有拍摄什么事情呢?我们要继续讨论VR视频的拍摄过程吗?

当然要,全景视频虽然是“伪VR视频”,但全景视频还是可以被认为是VR视频的初级阶段。因为全景视频加上3D效果也能带来沉浸感,相比普通视频已经有了质的飞跃,应用领域也非常广阔,值得我们去尝试和探索。

未来VR的呈现方式会趋向多元化,头显本身的发展也会从目前眼前单一屏幕向光场化真实化迈进,目前以Magic Leap为代表的国内外研究机构在光场头戴式显示进行探索,这种头显可以让人眼聚焦在虚拟物体的不同深度,而不是一块显示屏上; 最后,应用方式上,谷歌Welcome to Light Field为我们提供了一个很好的范例,更好的光场应用方式还需要进一步研究探索,比如,虚拟的光场和真实世界的逼真融合以及自然的交互也会成为学界和产业界的热点。"

责任编辑:lq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    5849

    浏览量

    103246
  • 光线
    +关注

    关注

    0

    文章

    57

    浏览量

    10459
  • VR视频
    +关注

    关注

    0

    文章

    17

    浏览量

    8154

原文标题:从谷歌的光场技术平台,谈谈VR视频和全景视频到底有什么区别

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    功率放大器在声波截面梯度的重建及其在声波处理中的应用

      实验名称:电压放大器在声波截面梯度的重建及其在声波处理中的应用   实验内容:水下声信号在传播过程中会引起介质折射率的变化,当激光穿过声扰动介质时,介质折射率的空间变化引起激光束的偏转,利用
    发表于 03-08 17:45

    谷歌模型框架是什么软件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌开发的用于机器学习和人工智能的软件框架,其中最著名的是TensorFlow。TensorFlow是一个开源的机器学习框架,由谷歌的机器学习团队开发,用于构建和训练各种机器学习模型。
    的头像 发表于 03-01 16:25 227次阅读

    谷歌模型怎么用手机打开

    要使用手机打开谷歌模型,首先需要明确一点:谷歌模型本身是在计算机上运行的程序或算法,而不是可以直接在手机上打开的应用程序。然而,你可以通过手机访问谷歌提供的服务或应用,这些服务或应用可能使用了
    的头像 发表于 03-01 16:23 198次阅读

    谷歌模型合成软件有哪些

    谷歌模型合成软件通常指的是谷歌提供的用于创建、修改和共享3D模型的软件。目前,谷歌推出的模型合成软件中最知名的是Google SketchUp。
    的头像 发表于 02-29 18:20 891次阅读

    谷歌模型框架是什么?有哪些功能和应用?

    谷歌模型框架(Google Model Framework)并不是一个特定的框架,而是指谷歌开发的一系列软件框架,用于支持机器学习和人工智能的应用。以下是一些与谷歌模型框架相关的关键组件和技术
    的头像 发表于 02-29 18:11 657次阅读

    谷歌模型怎么用手机打开文件格式

    谷歌在其AI技术中集成了多种工具和功能,用于处理和识别文件格式。具体到手机上打开的文件格式,这主要依赖于谷歌提供的服务和应用。例如,在Gmail中,用户可以直接查看多种格式的文件,包括PDF
    的头像 发表于 02-29 17:38 398次阅读

    谷歌模型合成工具怎么用

    谷歌模型合成工具主要是指Dreamfusion,这是Google的大型AI图像模型Imagen与NeRF的3D功能相结合的一种技术。Dreamfusion是Dream Fields的演变,Dream Fields是谷歌于2021
    的头像 发表于 02-29 17:33 384次阅读

    紧凑型矢量生成系统

    制造、表面等离子体激发、光学微操作、光学成像等应用领域。技术特征:采用4K高分辨率SLM矢量单自由度调制综合调制所有的4个自由度,也可以选择调制其中的2~3个自由度 铝合金箱体,紧凑尺寸
    发表于 02-28 13:20

    谷歌交互世界模型重磅发布

    谷歌模型
    北京中科同志科技股份有限公司
    发布于 :2024年02月28日 09:13:06

    AD8145行信号无输出怎么解决?

    使用AD8145遇到行信号无输出的问题(一直为4V),RGB差分输入信号和COMPA、COMPB输入信号都正常,使用一块N年前的老板子(使用AD8145),同样的输入,可以输出行信号(见附件)。求解答!
    发表于 11-17 08:08

    AI创企Anthropic将采用谷歌Cloud TPU v5e芯片

    随着制造更大ai模型的竞争越来越激烈,像谷歌这样的大型技术企业与该领域最尖端的新生企业建立了关系。据消息人士透露,anthropic已达成协议,将在最近4年里花费30多亿美元购买谷歌的云计算服务。而且,
    的头像 发表于 11-09 11:55 384次阅读

    2023博会回顾丨亿源通展示应用于400G/800G的高速组件

    模块使用的更多是并行技术。而中长距离传输采用WDM波分复用技术,能够成倍的增加光纤传输容量。 为了满足模块传输方案的应用,亿源通可提供并行光学组件以及WDM波分光学组件两种
    发表于 09-15 10:16

    谷歌打造新技术 帮助安卓手机扫描远距离二维码

    如果你在使用安卓手机扫描二维码时遇到困难,比如墙上的二维码太远,很难扫描成功,那么,谷歌正在开发一种新的代码扫描仪,它可以自动检测相机框架中的二维码,放大并读取。这项功能目前还没有正式推出,但已经在谷歌提供给开发者的最新应用程序接口(API)中进行测试。
    的头像 发表于 08-08 16:57 680次阅读

    谷歌或面临被分拆风险

    谷歌或面临被分拆风险 谷歌因为在欧盟被调查反垄断;甚至或面临被分拆风险。 欧盟指控谷歌滥用其在广告技术上的优势地位压制竞争对手形成垄断;而且如果欧盟委员会认定
    的头像 发表于 06-15 20:58 840次阅读