一位20年前的瘫痪病人,催生了Eyefluence今天的眼球追踪技术

EYF-AR-Graphic-768x432

众所周知,现在VR技术一个比较尴尬的情况,就是没有注视点追踪技术。你在戴着头盔的时候,想看左边的东西必须要转过头,想看右边的东西又要把头扭向右边……于是在外人眼里你就像一个摇头晃脑的癫痫病患者。

之前SMI曾经公布过应用注视点渲染的眼球追踪技术,而如今,又有一家名为Eyefluence的企业宣布将会把“眼球追踪技术应用到第二世代的VR头盔里”。下面就让我们来看看这家公司的故事吧。

“我能把这个系统变得更好”

故事起源于1998年,地点是美国某医院,那里有一名从头到脚都失去行动能力、瘫痪在床的病人。

他唯一能够移动的器官就是他的眼球,但神奇的是,通过他眼部的运动,他居然可以能够和外界进行交流。

这位病人并不是什么超能力者,也不存在什么“眼球语言”之类的东西。所有的奥秘都来自于病人周围的一套系统——这套系统是由他的医生,William Torch为他打造的。

通过它,病人可以用眼球控制系统中的光标,并表达一些简单的语句。

这不是科幻故事中的场景,这是真实发生的故事,而正是这位心系病人的医生,牵扯出了本文的主角——Eyefluence公司。

Eyefluence公司的创始人Jim Marggraff最初是在2012年遇到Torch医生的,当然,还有那套眼部追踪设备。

马上被这一系统折服的Marggraff,脑海中除了感叹和拜服外,还有一个念头“我能把这套东西变得更好”。

“用手指在手机上能做的事情,用眼睛全能做到”

Jim-Dave_Eyefluence

于是在2013年,他遇到了一位叫做David Stiehr的连续创业者,开过的公司全部和贩卖医疗器材有关。两人一拍即合,成立了今天的Eyefluence公司。公司只有一个目标:打造深度的眼部追踪系统。

一番商讨后,他们决定,一定要抛弃掉当时眼部追踪技术两种最常见的控制机制:眨眼和停留。

啥叫眨眼?指的是用户在盯着一个图标看一会之后,眨一下眼,就可以选择该图标。停留则是类似的系统,要求用户把视线保留在图标上一定时间视线选择。

这些方法很有效,但缺点就是太慢且太反人类。两人秉持的理念是,大幅提升人们交流的速率,让“用手指在手机上能做的事情,用眼睛全能做到”。

“我们的合作伙伴都是在VR领域响当当的名字”

Flexstrip-Pencil-Scale

终于他们带来了自己的iUi技术,用户可以只用眼球的运动,以飞快的速度实现导航菜单、键盘和相册的操作,不再需要眨眼或停留。

演示是在一台改装过的HTC Vive和一架ODG AR眼镜上进行的。两者都被加装上红外线LED灯,这种灯可以扫描人的眼部构造眼球的数字形象,再与Eyefluence本身的软硬件结合,形成整套系统。

从演示来看,整套系统的效果已经相当成熟。Marggraff更表示,目前Eyfluence正在“积极和著名的AR、VR伙伴合作,把我们的技术直接应用到他们的硬件里”。

那么,到底是哪些伙伴呢?Marggraff卖了关子,总之“都是在VR领域响当当的名字”,接着他话锋一转,弦外有音地提到Eyefluence受到了Oculus的CEO Palmer Luckey和Valve首席工程师们的一致好评。

至于公司未来的发展领域,Marggraff表示要视情况而定,大概要把技术应用到第二世代的VR头盔里去。

我们之前曾经报道过Eyefluence的竞争对手SMI,他们已经展示了注视点渲染技术,并表示眼部追踪是VR头盔领域“不可避免的大趋势”。Stiehr同样表示他们的技术可以应用注视点渲染,从而减少计算方面的读取约60%的速度。

目前,Eyefluence已经融资超过700万美金,这些资金大多来自于摩托罗拉和杜比这样的公司。最近还有一轮金额未公布的B轮融资。但整个公司的人数并不多,算上两个创始人也才31人。

然而,未来他们的产品,却极有可能像今天iPhone的触摸屏一样,成为大街小巷人尽皆知的基本技术。

文章下二维码15

责任编辑:freeAll
分享到QQ 分享到微信

0 条评论

头像发表我的观点

取消

  • 昵称 *
  • 邮箱 *
  • 网址

登录

忘记密码 ?

切换登录

注册