一文读懂VR世界的“空间定位”是个什么鬼

 我来答
依然未央
高粉答主

2016-12-27 · 繁杂信息太多,你要学会辨别
知道大有可为答主
回答量:1.3万
采纳率:78%
帮助的人:1627万
展开全部
前不久的OC3大会上,Oculus发布了Touch手柄和room-scale(房间级)空间定位方案,算上早就发布了Lighthouse系统的HTC VIVE以及带上PS camera就能玩空间定位的PSVR,虚拟现实头显三巨头都算是进入了光学追踪定位的VR交互新时代。
说到底,光学空间定位到底是如何实现?三大头显厂商的定位方案又有何优劣?未来VR交互又会向什么样的方向发展?
青亭网采访了专注于红外光学追踪研发的青瞳视觉,他们的CEO张海威向我们介绍了目前市场上主要的定位技术的优劣,并用自家产品演示了光学定位的工作原理。
三种交互方案,为什么最看好outside-in?
目前市场上主流的VR交互有三种:inside-in、outside-in以及inside-out,对于这三种方式的优劣,张海威谈了谈自己的看法。
张海威先用一个比喻形象的说明了一下VR交互的命名方式。他把inside形容为“猎手”,比如记录光学信息的摄像头或者记录惯性信息的陀螺仪;out则被他看作“捕猎目标”,比如光学mark点。而in和out则表示“猎手”和“目标”是否在定位对象(比如人或者VR头显)上面。
Inside-out方案是把相机这样的传感器放在身上,用来感知外界的环境,这种方案广泛应用于机器人的机械视觉以及Hololens等手势识别上。包括SLAM等公司,把相机装在机器人身上,对机器人周边的光学环境进行采集、处理,再与机器人的实际位置联系起来实现自主导航。

这种方案的好处是不需要在外界设置摄像头,可以减少场景的限制。但是由于只能识别头部动作,加上体积、续航等领域存在问题,因此它更适合于移动VR这种轻交互场合。
Inside-in就是指传感器和定位点都在目标身上,最典型的就是惯性动捕:让人穿上惯性捕捉设备来记录人体的移动,或者移动VR中头显、手机里的陀螺仪设备记录头部的六自由度移动。
这种方式的好处是不依赖于外界的设备,更加自由,但坏处就是没有位置信息,只能记录移动的轨迹,而目前所有的陀螺仪设备都有累积误差,会导致人在VR中移动的时候“走偏”。
Outside-in则是包括青瞳MC1300、optitrack系列这样,相机放在外头,mark点在人体或者头显上面。这种方式精确度更高,但坏处是一方面要借助外面的摄像头,对空间要求更大,另一方面则是相对成本更高。
在张海威看来,目前的技术都不完美,他认为对于固定场景的VR,outside-in类型的方案目前看起来相对成熟,而随着市场的发展,困扰这套方案最大的问题,摄像头的成本也会逐渐降低,所以张海威也选择用这种方案切入VR市场。
产品体验:精度高延迟低,小问题瑕不掩瑜
在位于上海大学校园内的青瞳视觉总部,青亭网体验了青瞳视觉的光学追踪产品。
进入青瞳视觉的实验室,在工作人员的帮助下,笔者戴上了上面粘着数个反光球的Oculus Rift头显,以及同样粘着数个反光球的手套和一个枪型手柄。

接下来,工作人员启动了一个青瞳自制的demo游戏——笔者进入到一个机械空间之中,游戏本身很简单,就是用手中的激光枪和巨大的机甲战斗。
游戏中,整个空间的稳定性,在空间中行走、躲避的实时反馈都非常精确,包括用枪射击的时候准星也非常稳定。唯一美中不足的是,在游戏的时候,游戏中的手部有的时候会突然地丢失。
对此张海威介绍,这是因为手套的mark点都集中在手背部,翻掌或者被遮挡的情况下,摄像头捕捉不到mark点就会丢失,在实际的商业应用中,mark点覆盖手的两面,就可以解决这个问题。
降低延迟,二代产品的功夫在“机内”
对于VR来说,交互系统的延迟对人们的VR体验有着决定性的作用,对于降低光学交互系统的延迟,张海威表示其实最重要的功夫是在机内的芯片算法里。

青瞳视觉之前推出了一代产品MC300 tracker,而经过一年多的研发,这次推出的二代产品MC1300 tracker,如上图所示,在硬件和性能上都有了很大的进步。以FPGA为核心的带有1GB DDR3内存的拇指大小的微型电脑,处理速度及刷新率大大的提升,降低了延迟,提升了帧率,使得二代产品可以更好的捕捉高速运动中的物体。
当然这并不代表青瞳的水平已经超过Optitrack这样的国际一流大厂,笔者调查后发现optitrack的产品线中也有Prime 13W这样的广角摄像头方案。Prime13W的水平视角为82度,与MC1300的视场角相近。
实现Lighthouse并不困难,算法里面的门道才是壁垒

对于自家的产品,张海威有一个非常形象的介绍:如果说虚拟现实是PC之后下一代的计算平台,那么光学追踪系统就鼠标、键盘一样,用来让人和虚拟现实的世界进行交互。
青瞳自家的红外光学方案主要分为三个部分,摄像头、标记点以及处理系统。摄像头上感光镜头周围有一圈小的led灯泡,发出的光线照射到反光球上,经过反射被摄像头里的感光芯片捕捉,通过内置芯片的计算,最终得出反光球在空间中的位置信息。
只要空间中能有两个摄像头同时捕捉到这个反光球,就可以通过算法计算出这个反光球在空间中的三维位置。
张海威介绍,在摄像头的“眼”中,每个小球就像是一个发亮的点。通过在一个现实中的物体上(比如VR头显)固定住数个不等的小球,记录下这些小球的移动信息,再通过小球间的位置关系确定头显在虚拟空间中的姿态和移动,从而计算出头显在一定场景中六自由度的运动信息。
以头显为例,假设一个人在戴上头显之后想看旁边的柱子,转头的时候会被光学追踪系统记录下来传输给电脑,电脑的CPU计算出人应该看到的画面是柱子,GPU会渲染出相应的画面并显示在头显的屏幕。
张海威表示,青瞳也研究过Steam的Lighthouse系统,并且称它实现起来“并不困难”,真正的技术含量是在软件层——两个基站即便是被遮蔽一个也能正常工作,这一点是其他包括青瞳在内的算法做不到的。
至于Oculus的追踪系统,张海威称二者原理类似,但他更看好Lighthouse,因为相比Oculus的系统,前者对硬件的要求更低,成本更低,稳定性也更好。
上海视徕科技有限公司
2024-12-24 广告
VR1803D是一种虚拟现实(VR)技术,它利用特殊的拍摄设备和算法,捕捉并呈现180度的三维立体影像。这种技术为用户提供了沉浸式的观看体验,使他们仿佛置身于拍摄现场,感受到更加真实和生动的画面。VR1803D全景相机VR180 3D全景相... 点击进入详情页
本回答由上海视徕科技有限公司提供
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式