为优化AR/VR体验,Meta将开发基于AI的空间音频工具

青亭网( ID:qingtinwang )--链接科技前沿,服务商业创新

近期,Meta AI部门宣布将为AR/VR开发全新的空间音频工具:Acoustic Sythesis,以增强虚拟内容的视听体验。据悉,该空间音频工具可对不同的视觉环境做出相应的声音反馈,从而提升环境/场景模拟的保真性和沉浸感。

285552517_521041373031850_6248224460722473825_n

Meta表示:我们一直在研究人们与周围声音的互动感知,发现人们通常会根据声音的位置去预判听到的音效。比如,如果你站在洞穴里,可能会期待听到回声,而远处的声源可能会听的不清楚。也就是说,环境特征会影响声音,包括空间的结构、空间中物品的材质、麦克风和声源之间的距离。

目前,AI模型已经可以理解视频中的图像场景,因此Meta AI希望在此基础上,开发一个多模态的AI环境理解模型,也就是说AI将不止能够视觉分析场景,还能理解不同场景中的声音。简单来讲,就是通过视觉提示来匹配目标场景坐标的声音,还可以融合虚拟和现实场景音,去除混响和噪音,强化虚拟音效,从而提升AR/VR观影、社交体验的沉浸感。

同时,为了推动沉浸式空间音频内容生态,Meta将向开发者开放三个支持视听理解的AI模型,这些模型专注于分析视频中的人类语言和声音,可让视频体验更加身临其境。未来,Meta计划将这种技术与音频翻译技术结合,以推动全新的应用场景。参考:socialmediatoday

更多精彩内容,关注青亭网微信号(ID:qingtinwang),或者来微博@青亭网与我们互动!转载请注明版权和原文链接!
青亭网

微信扫码关注青亭网

青亭网

青亭 | 前沿科技交流群01

责任编辑:小新
分享到QQ 分享到微信

登录

忘记密码 ?

您也可以使用第三方帐号快捷登录

Q Q 登 录
微 博 登 录
切换登录

注册