BeanVR秦凯:VR&MR中下一代交互技术及应用

VRCORE硬核虚拟现实开发者大赛如火如荼,BeanVR有幸作为本次大赛合作伙伴参与活动。8月13日, VRCORE硬核虚拟现实开发者的系列公开课活动来到了火炉城市——武汉,BeanVR CEO秦凯受邀作为技术讲师出席,与现场多名技术大咖交流VR核心技术及应用。

BeanVR创始人秦凯以《VR&MR中下一代交互技术及应用》为主题,分享了目前尚处在研究阶段但是将来极有可能颠覆现有VR交互方式设计的新兴交互技术。

BeanVR注册成立于20162月, 专注于VR社交系统研发及技术应用解决方案,早在成立4个月之际便已完成天使轮融资。秦凯表示,目前VR行业仍然处于早期,设备未普及,市场容量远远未达 到普罗大众的千万亿万级,内容匮乏,且普遍对用户没有黏性,大家都会因新奇的体验而接触VR,而不会因为可玩性高而长时间留存。所以VR应该用更有趣的玩法,更自然便捷的交互方式吸引用户,以可“面对面”联机交互的VR社交模式规避用户的孤独感,主要分享内容如下:

手势和动作为主的立体交互

手势和动作的识别依赖的是运动捕捉系统,人们对于动捕系统的研究已经持续了很长时间,从原理上看,运动捕捉技术可分为6种:

光学式:VR中大多数使用。HTC用的是光长,Oculus CV1用的是红外追踪解决方案,  PS VR是光学追踪的解决方案。

机械式:多用于行业应用,例如飞行员的驾驶舱。

电磁式:很早就有,但并未成为主流。

声学式:很早就有,但并未成为主流。目前海外跟国内一小部分团队也在做这方面的研 究,就是所谓的超声波定位,如果成熟的话,会优于目前的Lighthouse或光长解决方案,因为它不需要在空间场景中加设过多的光学摄像头,可以节省成本,提高空间位移的精确度。

视频式:简单来说是摄像头的深度感知,用摄像头加手势的方式,识别手势的运动轨迹 。有一个缺点,只能识别正面横向120度,上下90度左右的范围,超过这个范围难以识别。

惯性式:以蓝牙通信协议为主,内设模块去绑定用户每个骨节的运动轨迹的变化,应用 场景主要是替代原本在电影拍摄中光幕和演员身上加很多光标的mark点做法。

目前很火的两个对立名词:Outside-InInside-Out解决方案的分类标准是是否需要借助外部摄像头或激光发射器完成定位还是仅靠自身便可完成定位。

前 的VR设备大多数采用光学式追踪,且多为Outside-In解决方案,包括三大头显:Vive的 Lighthouse,OculusTouch,Sony PS Move。而谷歌的Project tango和微软Hololens都是依靠SLAM技术识别场景深度完成定位,属于典型的Inside-Out解决方案,这个会在后面的分享中做详细的分 析。

目前Hololens中被设计和应用的交互方式,分别是注视(Gaze),手势(Gesture),语音(Voice),在未来的VR、AR系统中的人机交互方式设计中,会以多样化的手势识别为主要手段,交互动作会越来越自然,操作会越来越便捷。

基于眼动追踪的视觉互动

一 种更加便捷的基于眼动追踪技术的视觉交互技术,早期游戏或视频的体验是基于平面大屏幕,用户只需要面向屏幕就可以看到所有需要的视觉信息,在虚拟环境下, 眼睛、包括眼神和头部转动的方向决定了用户需要360度里面的大量信息,用于实现在体验中抗眩晕、真实的场景渲染以增加用户的沉浸感。目前绝大部分的头显 设备包括Hololens中的“注视点”是靠陀螺仪追踪头部动作来还原的。而眼动追踪能真正还原人眼在虚拟环境中的动态情况。

注视点渲染技术

基于眼球追踪的注视点渲染技术是通过通过在镜片上加motion tracking的传感器,捕捉用户的眼球追踪方向,在其视觉中心呈现最精细的图像,而周围图像则不必仔细渲染,不仅会提升用户的视觉清晰度和体验,而且能够大大节省图形芯片的渲染资源,降低硬件使用门槛。

SLAM技术

称 为CML技术,简单来说就是不需要任何的外部设备,在头盔中打入双目摄像头的情况下,给场景做快速扫描,然后快速建模并通过光照、光学,包括墙壁材质的反 馈,快速反应房间内障碍物的形状、材质,包括场景的大小,使用户在移动的时候也能快速识别人移动的方向、位移和距离。最早用于无人机和AI机器人,是比较 初级的SLAM技术。目前,VR/AR领域都有应用。

举个简单的例子,如果让机器人从一个充满障碍物的房间内走出去,它的双眼就是含有SLAM技术的摄像头,在经历确定位置,建立图像,规划路径三个步骤后帮助机器人避开所有障碍物到达房间出口。

谷歌Project Tango是一种使用类SLAM技术的硬件设备,它是由多种传感器和两个以上的摄像头组成,拥有三大功能,分别是:

运动追踪(Motion Tracking):实时扫描和构建场景,内部的运动传感器可以帮助追 踪室内场景的六个自由度的运动情况,GPS是做不到的。

区域学习(Area Learning):运动追踪只能帮助“看见场景”,区域学习可以识别物 理空间内的椅子,墙壁,沙发等等物体。

深度感知(Depth Perception):能够通过结构光(Structured Light)、飞行时间(Time of Flight)和立体声(Stereo)三种方式计算实际距离。

目 前Project Tango能够用于快速扫描建立室内地图,完成GPS所做不到的事情;如果可以应用在VR&MR头显上则不需要借助外部光场等定位设备就能完成六 个自由度的运动追踪;而精确的深度识别功能则可以让虚拟模型和实景结合的非常自然,就好像真的坐落在某处一样,而不会出现“穿模”的现象。

多重感官交互技术

究表明,人们的感官并不是彼此独立向大脑反馈认知的,不同感官之间可以相互影响,感官键的结合会改变我们的本体感知,例如:

视觉和触觉:通过墙壁原型的设计,包括导轨和内容的高度配合,让人们误认为自  己是在以直线行走,实际上却是在绕圈。目前应用于探索如何在有限的场景内实现大范围行走的体验。

味觉和嗅觉:通过在头盔下安装嗅囊,配合VR内容设计,将不同气味的气体喷到用户的鼻子中。目前仍处于探索中,给出的启示是,真正的VR给用户的体验应该是全方位的。

实时视频交互技术

频本身是只能观看而不能实时交互的媒介,而最近来自麻省理工学院(MIT)的计算机科学与人工智能实验室(CSAIL)研发了一项技术:利用算法分析传统视频画面中的物体振动,生成预测模型,在触碰时生成动画效果, 以实现与部分场景进行深度互动,就好像是真实世界中看到见摸得着的物体。

这项技术能够让普通的全景视频变得可以交互,变为真正的VR视频,配合一些感控制器或可穿戴设备做交互的触觉反馈,并配合一些音效做听觉反馈,则可以用户与VR视频的交互变得更加真实。

些 技术虽然看起来很新且不够成熟,很多依然处在开发测试的阶段,但是在VR&MR下一代的交互技术研发中具有非常好的应用前景。被称为VR元年的 16年,VR仍是处在襁褓中的婴儿,虽然BeanVR已经在交互解决方案上拥有多项专利,但对于整个VR行业现状而言,BeanVR着眼的VR社交系统和 交互解决方案的研发在是一个长远的布局和方向,所以BeanVR会一直保持和整个行业一起成长和学习的状态,拥抱和挖掘任何可能运用在VR&MR系统上的交互技术,为人机交互的革命贡献推动性的力量。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。