苹果正在制造一款AR耳机、一款AR眼镜,大概在2021年、2022年或2023年正式公布......这样的计划或者报告铺天盖地,似乎一切都在向好的方向发展。
然而,在今年的全球开发者大会(WWDC)上,这些计划苹果并没有公布,也没有任何暗示。相反,很多无法回答的问题有待解决。
过去四年里,苹果公司首席执行官蒂姆·库克(Tim Cook)曾多次表示,增强现实(AR)将成为公司未来发展的重要组成部分。面对谷歌、Facebook、微软、高通等公司的竞争,苹果仍有能力制造可能引起巨大轰动的硬件,比如数百万部iphone、ipad、产品生态系统,以及AR图形工具包。
然而,由于每个人都被困在家里过虚拟生活,增强现实体验在今年的活动中被淡化了。
去年,苹果发布了集成的AR工具,允许多人体验和构建虚拟世界。今年,苹果在iOS 14和iPadOS 14中更新的ARKit 4工具虽然发挥了关键作用,但似乎少了一些动态的新元素。
随着更多细节的透露,你会发现:有深度感应的iPad、有空间感知能力的AirPods、苹果地图的定位标记等,将成为通往虚拟世界的入口。
iPad Pro的深度感应是关键
2020年春季发布的iPad Pro有一个独特的激光雷达传感器,可以扫描真实空间并创建3D地图。
这一扫描功能,未来很有可能搭载在iphone上,并最终出现在苹果的AR耳机中。
苹果新推出的面向开发者的ARKit 4工具包有一个Depth API,该API将更好地利用传感器,并承诺提供更精确的测量。开发人员已经开始使用激光雷达来扫描房屋和空间,并对扫描进行筛选,这种扫描不仅可以用于增强现实,还可以用于以CAD等格式保存地点模型。
苹果地图上标记的点,未来可以显示现实世界的景象
地图位置和增强现实,进一步融合
就像微软、Snapchat和谷歌一样,苹果也在其iOS 14 AR工具中添加了定位锚,但使用了一些精确工具来排列GPS和苹果地图数据。
这些特定的地理位置标记将使虚拟事物更容易固定在特定的地方。
微软去年发布的《我的世界》(Minecraft Earth)已经有了特定位置的锚。苹果似乎准备进一步推进这一想法,试图把人类体验与城市地图联系起来。
结合AR已经实现的多用户可能性,这将导致现实中更多的共享和压缩,比如特定位置的艺术体验。不过有一件事很有趣:苹果公司表示,由于它依赖更先进的苹果地图数据来协调和微调定位,新的地理定位锚目前只能在美国某些主要城市使用。
新程序,将快速扫描启动AR
iOS 14的一项新功能名为App Clips,它承诺在NFC扫描或使用QR码时,会快速地显示App片段。
这可能意味着一个NFC水龙头或二维码扫描就可以启动一个基于“增大化现实”技术应用,而不需要下载一个完整的应用程序。
AirPods Pro可以做空间音频,这可能导致环境音频增强现实。
AirPods Pro上的空间音频看起来像苹果的AR音频
去年,我开始考虑把音频作为增强现实的关键:不用拿起电话甚至眼镜去体验虚拟世界,音频这种体验方式有一个好处——受到的干扰会更少。
毕竟,我们一直都戴着耳机,生活在音频泡泡里。苹果的AirPods经常被视为沉浸式未来的“先驱”。
iOS 14允许在苹果的step up AirPods Pro模型中使用空间音频,通过移动跟踪来定位音频位置,而这取决于你的头部如何移动。
目前,它的功能是在iPhone或iPad上听环绕立体声,苹果还没有将AirPods Pro的空间音频集成到ARKIt中,但这也可以应用到音频AR体验中。再加上眼镜,就完美了。
苹果AR,可以播放虚拟视频屏幕了
ARKit 4中有一个很常见的功能叫做“视频纹理”,它可以将视频投影到AR中,比如Magic Leap,它可以用于浮动电视屏幕,或者将移动的视频角色映射到3D模型上。
现在,当iPhone或iPad只是一个迷你电视屏幕时,用你的iPhone或iPad在你的客厅里创建一个浮动的虚拟电视屏幕似乎有些愚蠢。但是,戴上眼镜,这个想法看起来一点也不傻。
全息投影的想法也很吸引人。目前,AR和VR并不能很好地在虚拟世界中显示人们的真实面孔;通常感觉更像是生活在一个卡通或木偶世界里。
即使在像Spatial这样的虚拟缩放会议应用程序中,头像看起来也像是真实熟人的粗略拉伸。在未来的AR FaceTime通话中,视频映射化身将可能实现你与朋友以全息影像的方式见面。
结语
如果你曾期待苹果在AR(或VR)领域有什么大的突破,那么现在已经不可能了。
没有苹果耳机、也没有苹果眼镜,苹果也没有将AR耳机插入苹果设备的能力。让人稍稍欣慰的是,苹果的AR工具正在变得非常先进。
参考链接:https://www.cnet.com/news/apples-future-ar-pieces-hid-in-the-corners-during-a-virtual-wwdc/(雷锋网)雷锋网雷锋网