从扎克伯格“虚拟现实普及至少需10年”看VR、VS、VA与RA

2016-03-03 16:40:59来源:DVBCN 作者:DVBCN主编 李远东热度:
扎克伯格近日在接受Business Insider专访时表示,虚拟现实技术至少需要10年时间才能得到普及,市场化还有很长的路要走。
 
“事实上,我并不知道虚拟现实市场化需要多久。这可能是5年,也可能是10年,也可能是15~20年。我猜测至少需要10年时间。”他说。
 
Facebook于2014年以20亿美元收购了虚拟现实设备制造商Oculus VR,此举引发了包括谷歌和微软在内的科技巨头斥巨资投资虚拟现实行业的热潮。
 
近段时间,大家都沉浸在对VR美好前景的憧憬之中(比如高盛上个月发布报告认为,到2025年AR和VR硬件及软件营收将达800亿美元),而很少注意到VR中的VA(虚拟听觉)与RA(机器人听觉)。
 
现在,人们把“虚拟现实”称为VR是很不准确的,而应该叫做叫VS(虚拟视觉)。因为现在的VR设备还没考虑声音的问题。
 
VR不仅需要VS,也需要VA,至少也要让VR中的场景和声音适配起来,否则由于眼睛和耳朵的失调更容易引起观看疲劳感。比如,诸如Oculus的Rift等虚拟现实头盔已经应用于感官游戏、电影以及其他相关领域。Oculus和谷歌等公司已经可以利用智能手机为用户带来虚拟现实体验。但是即便是采用最好的虚拟现实软硬件配置,这些设备仍会让用户感觉眩晕恶心。
 
未来,VR的火爆自然也会引发VA的火爆。VA是相对于VR的概念来说的。
 
这种问题在看立体电影的时候,感受应该很明显,声音或多或少总会和画面的方位脱节,特别是当坐到了影院两侧过道的时候,似乎声音总是在头顶的一方。
 
VA就是解决这个问题。VA是很大的研究和应用领域,包括VSA(虚拟环绕声)、V3DA(虚拟立体声)等。
 
从现在的头戴式VR设备来看,VSA和V3DA应该是最有应用前景的:
 
VSA只能做到一个平面上的声音定位,而V3DA则可以做到立体空间的声音定位,这种虚拟出来的声音会让人类的耳朵明显感觉到声音的方位。
 
另外,未来跟随爆发的还应该有RA(机器人听觉技术)。
 
传感系统、机械系统、控制系统、视觉系统、听觉系统、触觉系统等都是RA实现的关键要素。机器人自然要应用人工智能,最先突破又能够落地应用的就是听觉智能。
 
RA首先是仿真人类听觉系统。人类真正解剖听觉系统是在文艺复兴时期。机器人或智能设备必须拥有一副仿真的人类耳朵才能解决机器人自动适应环境及与人类的自然交流问题——就是要让机器人听得到。
 
从而,就必须解决远程拾音、声音定位、语音增强、噪声处理、语音识别、声纹识别等问题。
其次,RA还要解决听觉智能——听得懂:
 
人类的听觉系统是和神经紧密相连的——为此,大脑中专门有个语言中枢。
 
从而,机器人也就需要与这种语言中枢相类似的系统,很多相关的厂商(比如Apple、Google、Nuance、百度、科大讯飞等)都希望能研发出这种听觉中枢系统。
 
而另外,RA也还必须要解决“自动对话”的问题——要能说得出:
 
机器人不能听到或者听懂了后就默不作声——否则简直就会让人抓狂甚至发疯。从而,就需要实现人机对话——目前实现人机对话的,主要是语音合成技术——但是,由于截至目前尚未完全搞懂人类的发音系统,“人机对话”也就还没达到令人满意的程度。
 
总之,最终,机器人说话也应能具备正常的语调及其中所蕴含的情感。
 
扎克伯格坚持认为,虚拟现实技术将成为日常生活的重要组成部分,为技术和传媒开拓新的市场。
 
但是,如扎克伯格所说,在迎来市场化的曙光之前,目前的大部分虚拟现实创业公司、投资机构以及虚拟现实开发项目未必能够坚持10年时间。

责任编辑:饶军