一文读懂VR世界的“空间定位”是个什么鬼?

前不久的OC3大会上,Oculus发布了Touch手柄和room-scale(房间级)空间定位方案,算上早就发布了Lighthouse系统的HTC VIVE以及带上PS camera就能玩空间定位的PSVR,虚拟现实头显三巨头都算是进入了光学追踪定位的VR交互新时代。

说到底,光学空间定位到底是如何实现?三大头显厂商的定位方案又有何优劣?未来VR交互又会向什么样的方向发展?

青亭网采访了专注于红外光学追踪研发的青瞳视觉,他们的CEO张海威向我们介绍了目前市场上主要的定位技术的优劣,并用自家产品演示了光学定位的工作原理。

三种交互方案,为什么最看好outside-in?

目前市场上主流的VR交互有三种:inside-in、outside-in以及inside-out,对于这三种方式的优劣,张海威谈了谈自己的看法。

张海威先用一个比喻形象的说明了一下VR交互的命名方式。他把inside形容为“猎手”,比如记录光学信息的摄像头或者记录惯性信息的陀螺仪;out则被他看作“捕猎目标”,比如光学mark点。而in和out则表示“猎手”和“目标”是否在定位对象(比如人或者VR头显)上面。

Inside-out方案是把相机这样的传感器放在身上,用来感知外界的环境,这种方案广泛应用于机器人的机械视觉以及Hololens等手势识别上。包括SLAM等公司,把相机装在机器人身上,对机器人周边的光学环境进行采集、处理,再与机器人的实际位置联系起来实现自主导航。

青2

这种方案的好处是不需要在外界设置摄像头,可以减少场景的限制。但是由于只能识别头部动作,加上体积、续航等领域存在问题,因此它更适合于移动VR这种轻交互场合。

Inside-in就是指传感器和定位点都在目标身上,最典型的就是惯性动捕:让人穿上惯性捕捉设备来记录人体的移动,或者移动VR中头显、手机里的陀螺仪设备记录头部的六自由度移动。

这种方式的好处是不依赖于外界的设备,更加自由,但坏处就是没有位置信息,只能记录移动的轨迹,而目前所有的陀螺仪设备都有累积误差,会导致人在VR中移动的时候“走偏”。

Outside-in则是包括青瞳MC1300、optitrack系列这样,相机放在外头,mark点在人体或者头显上面。这种方式精确度更高,但坏处是一方面要借助外面的摄像头,对空间要求更大,另一方面则是相对成本更高。

在张海威看来,目前的技术都不完美,他认为对于固定场景的VR,outside-in类型的方案目前看起来相对成熟,而随着市场的发展,困扰这套方案最大的问题,摄像头的成本也会逐渐降低,所以张海威也选择用这种方案切入VR市场。

产品体验:精度高延迟低,小问题瑕不掩瑜

在位于上海大学校园内的青瞳视觉总部,青亭网体验了青瞳视觉的光学追踪产品。

进入青瞳视觉的实验室,在工作人员的帮助下,笔者戴上了上面粘着数个反光球的Oculus Rift头显,以及同样粘着数个反光球的手套和一个枪型手柄。

青4

接下来,工作人员启动了一个青瞳自制的demo游戏——笔者进入到一个机械空间之中,游戏本身很简单,就是用手中的激光枪和巨大的机甲战斗。

游戏中,整个空间的稳定性,在空间中行走、躲避的实时反馈都非常精确,包括用枪射击的时候准星也非常稳定。唯一美中不足的是,在游戏的时候,游戏中的手部有的时候会突然地丢失。

对此张海威介绍,这是因为手套的mark点都集中在手背部,翻掌或者被遮挡的情况下,摄像头捕捉不到mark点就会丢失,在实际的商业应用中,mark点覆盖手的两面,就可以解决这个问题。

降低延迟,二代产品的功夫在“机内”

对于VR来说,交互系统的延迟对人们的VR体验有着决定性的作用,对于降低光学交互系统的延迟,张海威表示其实最重要的功夫是在机内的芯片算法里。

青1

青瞳视觉之前推出了一代产品MC300 tracker,而经过一年多的研发,这次推出的二代产品MC1300 tracker,如上图所示,在硬件和性能上都有了很大的进步。以FPGA为核心的带有1GB DDR3内存的拇指大小的微型电脑,处理速度及刷新率大大的提升,降低了延迟,提升了帧率,使得二代产品可以更好的捕捉高速运动中的物体。

当然这并不代表青瞳的水平已经超过Optitrack这样的国际一流大厂,笔者调查后发现optitrack的产品线中也有Prime 13W这样的广角摄像头方案。Prime13W的水平视角为82度,与MC1300的视场角相近。

实现Lighthouse并不困难,算法里面的门道才是壁垒

青3

对于自家的产品,张海威有一个非常形象的介绍:如果说虚拟现实是PC之后下一代的计算平台,那么光学追踪系统就鼠标、键盘一样,用来让人和虚拟现实的世界进行交互。

青瞳自家的红外光学方案主要分为三个部分,摄像头、标记点以及处理系统。摄像头上感光镜头周围有一圈小的led灯泡,发出的光线照射到反光球上,经过反射被摄像头里的感光芯片捕捉,通过内置芯片的计算,最终得出反光球在空间中的位置信息。

只要空间中能有两个摄像头同时捕捉到这个反光球,就可以通过算法计算出这个反光球在空间中的三维位置。

张海威介绍,在摄像头的“眼”中,每个小球就像是一个发亮的点。通过在一个现实中的物体上(比如VR头显)固定住数个不等的小球,记录下这些小球的移动信息,再通过小球间的位置关系确定头显在虚拟空间中的姿态和移动,从而计算出头显在一定场景中六自由度的运动信息。

以头显为例,假设一个人在戴上头显之后想看旁边的柱子,转头的时候会被光学追踪系统记录下来传输给电脑,电脑的CPU计算出人应该看到的画面是柱子,GPU会渲染出相应的画面并显示在头显的屏幕。

张海威表示,青瞳也研究过Steam的Lighthouse系统,并且称它实现起来“并不困难”,真正的技术含量是在软件层——两个基站即便是被遮蔽一个也能正常工作,这一点是其他包括青瞳在内的算法做不到的。

至于Oculus的追踪系统,张海威称二者原理类似,但他更看好Lighthouse,因为相比Oculus的系统,前者对硬件的要求更低,成本更低,稳定性也更好。

文章下二维码15

责任编辑:
分享到QQ 分享到微信

0 条评论

头像发表我的观点

取消

  • 昵称 *
  • 邮箱 *
  • 网址

登录

忘记密码 ?

切换登录

注册