苹果在AR上的布局和战略解读

资讯 4年前
914
苹果在AR上的布局和战略解读

在5G·AR(增强现实)技术应用高峰论坛上,VR陀螺主编案山子以“苹果在AR上的布局和战略解读”为主题发表了演讲。在演讲中,案山子对苹果AR眼镜形态发展作出了个人的分析:产品形态为以MicroLED+光波导为光学方案,加以3D空间声场音频和6DOF+眼动追踪的无线分体式手机AR;当MicroLED及全息显示成熟之后,未来,手势识别将加入感知互动方式中,产品形态主要为一体式AR眼镜。基于对苹果AR产业链布局结构、在AR/VR领域的投资收购、硬件的核心器件和感知交互、软件生态、内容以及应用生态的深度剖析,案山子总结苹果产品思维具有“优化整合、追求极致、自建生态”的特点。

以下是演讲实录。

案山子:

大家好,我是VR陀螺的主编案山子。苹果会有什么产品出来是大家关心的话题。从苹果现有的产业链布局来看,可以看到苹果从硬件、软件、内容、应用生态等各个层面都有它的布局。

苹果的AR产业链布局

从整体上看,核心器件包括芯片、显示光学声学、传感器,全部都已经有企业研发,甚至有产品出来;感知交互包括空间定位和动作捕捉,苹果都有了相应的应用。软件方面更多从工具上进行布局,包括SDK 3D引擎渲染软件,以及其他辅助性软件。内容制作上,苹果2017年推出ARKit,这样做的意义表现在了让原来手游、app开发者加入了AR开发阵容中来。中游的内容分发集中在app store,而下游的应用生态集中在消费端和企业端。其中值得注意的是,iPhone使用中的面部追踪和识别,现在目前推出的是人脸解锁,实际上同时应用了眼动追踪,如果眼睛不看向屏幕的话是不会解锁的。

通过对苹果在AR/VR领域的投资收购的整体分析,直观上可以看到其实收购的并不多,大部分以收购形式进行都是底层公司。早些时候,从硬件底层来布局,比如2010收购面部识别硬件技术公司Polar Rose;到了近期,包括苹果前阵子收购的NextVR等公司,是属于内容端,收购的方向偏表层而且收购时间相对来说比较晚。

核心硬件技术:储备、收购和开发

从硬件上来看,苹果在核心器件上主要推仿生芯片,今年是A11仿生芯片,并且首次在手机端实现了ARKit功能。ARKit最早只能实现平面识别,环境和空间感知没那么强,后来平面、侧面识别和肢体手势结合,可以实现人体骨骼动作,虽然没有光学动捕那么深度,但现在已经能够做到基础交互了。

另一个核心芯片包含了UWB超宽频芯片,这是一个无线传输技术,从A11开始采用。与蓝牙相比,传输速度快了几百倍(蓝牙只能1m/s)。高效传播速率、高精度定位、传输距离适中、低能耗是UWB超宽频芯片的优势,但使用者需对网络重新进行部署,并且需要使用专用的信号测量设备,劣势在于实现成本较高。

关于显示屏。苹果目前储备Micro-LED技术,其中有潜力的是全息波导光学方案,而且收购的大部分是Micro-LED的企业。但技术难题是Micro-LED还没有量产出来,全息眼镜基本没有量产的产品。说到屏幕的基本参数,从L-COS、DLP、硅基OLE,到Micro-LE,差异挺大的,可以看出Micro-LED优势明显,亮度上能达到100,000nit(全彩) 10,000,000nit(蓝/绿)的量级。

2018年收购的光波导企业AKONIA,是苹果在全息光波导上布局的一个重要企业。AKONIA的创始科学家都是贝尔实验室全息技术研发团队的核心成员,公司拥有原型设计和制造设备,以及200多项与全息系统和材料相关的专利。目前苹果获得美国专利局审批通过的光波导领域专利共有 5份;外媒和内媒等多方消息报道称苹果在与国内代工厂商试生产光波导镜片等。虽然专利很多,但并不能代表苹果完全生产出来,只能说明未来的技术路径将会沿着这个方向走。

在声学布局上,同步的视觉和听觉沉浸感是真正实现虚拟现实体验的关键。苹果的全景声效果采用了可追踪定位的空间声场技术,其Air pods产品融合追踪定位的空间声场技术,将为苹果未来的AR眼镜奠定音频技术基础,以保证全沉浸,并能够跨设备无缝切换,实现空间音频全景声效果。其中的技术复杂度完全不亚于一台iPhone手机。

在传感器方面,苹果于2013年收购了3D传感器Prime Sense。3D传感器用在人体动作捕捉、近距离的环境识别中,苹果的Animoji也是用到这个技术。收购图像传感器厂商InViage,是Ar/Vr布局的一环。今年的苹果发布会上,苹果ipad pro有搭载 iphone逐步搭载TOF传感器,不仅是简单的环境识别,而是有深度的识别,能够与虚拟物体进行交互,这对于实现混合现实很有利。

苹果的技术储备深厚,功能也逐渐上线了。眼动追踪技术已应用于Face ID,面部识别比较成熟,手势交互尚未落地使用,ARKit已支持动作捕捉功能。

© 版权声明

相关文章