资讯 业界
此为临时链接,仅用于文章预览,将在时失效

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

作者:李诗
2018/06/07 16:54

近来,微软Build、谷歌I/O、苹果WWDC相继举行。

虽说是开发者大会,而不是人工智能大会,微软和谷歌都把AI当成了重心。谷歌战略已经从Mobile First转向了AI first,微软强调全新的世界观——智能云和智能边缘(Intelligent Cloud & Intelligent Edge)。而苹果似乎没有这么着急地要一口吞下AI。

虽然苹果布局机器学习已久,却一向低调。苹果很早就发布了人工智能语音助手Siri,但是外界却普遍评价其在AI、机器学习上的进展落后于谷歌和微软。而也是在2016年BackChannel的一篇文章才揭示了苹果的iBrain,和苹果是如何低调地把AI放进各个产品之中。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

苹果似乎依然不愿意过度强调AI。WWDC2018上,发布会临结束时,负责软件的苹果高级副总裁Craig Federighi介绍了Metal和ML两大技术,然而也只占到了几分钟。

Craig Federighi谈到,在软件系统更新之外,Metal、ML和ARKit是更面向未来的技术。

Create ML:在Mac上训练ML模型

现在,机器学习已经成为开发者常用的开发工具。

在WWDC2017上,苹果介绍了Core ML。Core ML是能在苹果产品上使用的高性能机器学习框架,能帮助开发者快速地将多种机器学习模型融合到App中。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

开发者可以把在IBM Waston、Tensorflow、turi等平台训练好的ML模型,放在Core ML上运行,Core ML能提供多样、高效的推理运行环境,且支持iOS、mcOS等设备。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

此次大会推出了升级的Core ML 2,其可以使模型运行更快,利用一项被称为Batch Prediction的技术,Core ML 2的处理速度提升了30%,模型大小能减少75%。

除了将别家的ML模型导入自加的APP外,苹果当然希望开发者能在现有的苹果设备中训练ML模型。

机器学习需要耗费大量的计算单元,通常都是在云端完成,或者是用配备了多个GPU以及专为AI优化的硬件。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

而为了让更多人直接利用现有的Mac进行开发,Craig Federighi介绍了一个全新的工具——Create ML。Create ML可以支持计算机视觉、自然语言处理等机器学习任务,还支持添加自定义的数据,这些任务可以使用Swift 与 macOS 试验场等熟悉的工具。等模型训练好之后,就可以放进苹果的Core ML框架里运行。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?


例如,Memrise是一家做计算机视觉的公司,此前,他们需要用2000张图像来训练模型,大概花费24小时。而现在,他们可以在MacBook Pro上面训练同样的模型,只需要48分钟,在iMac Pro上面则只需要18分钟,并且模型的大小从90MB缩小到3MB。

Core ML 2和Create ML在效率上的提升,以及对硬件设备要求的降低也来源于GPU的支持。大多数在谈到苹果的ML工具Core ML时,都会忽视Metal,其实,Core ML是基于更底层的Metal开发的。

2014年苹果推出Metal,能利用GPU来获得更好的图形和计算能力,能使得一些操作游戏如《堡垒之夜》(Fortnight)在iPhone手机上运行。通过对external GPU的支持,Metal使得苹果的设备能够获得更逼真的3D渲染效果,现场,Craig Federighi展示了Metal帮助Unity实现实时的光线渲染效果,这些光线就像是真实录制下来的一样,每个角度都有不同的变化。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

除此之外,Metal的另一特色在于,其能支持机器学习,Metal Performance Shaders(MPS)能够加速训练神经网络这样的计算密集型任务,用GPU的MPS的训练速度比CPU提升20倍。因此基于Metal开发的Core ML也能利用GPU,在效率上能得到很大提升。 

AI无处不在

除了提供Core ML和Create ML,让开发者也能简单地在苹果的设备上创建机器学习应用以外,苹果自身的产品已经全面拥抱AI和机器学习。

此前,我们已经看到,为了用机器学习带来更好的用户体验,苹果已经做出了很多尝试。比如在iPad上利用机器学习识别手写便签的文本、在iPhone上通过学习和预测用户的使用习惯来让iOS更省电、在照片app里自动创建的回忆相册以及面部识别, Siri也利用机器学习带来了更多贴心的功能和更流畅的对答。这些,在今年WWDC新推出的iOS 12上都有了新的进展。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

首先是智能化的照片分享功能。当用户在分享一张照片时,系统会把相关的照片都找出来,并且将照片中出现的人作为发送的推荐对象。然后,当对方收到照片后,系统会建议对方回复手机中相关的照片。这样一来,双方就能很简单地获得在同一个活动或者事件中的完整照片。

更重要的是Siri的更新

Siri是苹果最先推出的AI应用,由于语音助手是用户获得AI服务的一个重要入口,在各大巨头公司的战略布局中,Siri这一类的语音助手也占据了越来越重要的位置。在Google I/O大会上,Google刚刚展示了拥有“双工”技术,能实现自然流畅的连续对话,能帮助用户给餐厅、理发店打电话预定位置的Google Assistant。微软的小冰也已经实现“全双工语音交互”,能够连续对话、进行唱歌写诗等内容创作、还落地智能音箱和车载等智能硬件。

此次苹果没有展示Siri是否具备连续对话或者更强的对话理解能力,而是推出了新功能Siri Shortcuts。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

有了Siri Shortcuts,每个应用都可以将一些快捷功能提供给Siri,让Siri以更智能、更便捷、更符合用户行为习惯的方式执行。例如,通过设定短语“I lost my keys”帮助寻找钥匙的应用Tile App可以添加一个Shortcuts给Siri。然后当你说出这句话时,Siri可以自动打开Tile,并且在Siri的界面直接调动寻找钥匙这一功能,而无需去到应用里。这样的例子还有很多,例如可以把你的出行App的行程安排、把健身管理里的课程表都变成Shortcuts,然后对着Siri说出相应的短语就可以调用这些不同应用的功能。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

这个,似乎只是给了Siri更多的调用App功能的权利,另一项功能Siri Suggestion则更加智能。Siri Suggestion能够根据你的使用行为来预测你将要做的事情,并且在相应的时间给出你建议。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

例如,你的日程里有一个聚会安排,但是Siri通过定位发现,聚会时间快到了你还离聚会地点很远,Siri就会弹出一个快捷的消息,给你的朋友发消息说你会晚一点到。还有,如果Siri了解到你明天早上都会在一个App里点咖啡,Siri就会在早上自动弹出一个简化的页面,让你一键预定咖啡。

不得不说,这一切都基于Siri中的机器学习功能。微软和谷歌都在致力于对话式人工智能的对话能力的提升,如何利用机器学习、深度学习这些技术来让语音助手更好地理解人类的对话。而苹果似乎没有那么前沿,而是让Siri根据用户现有的行为习惯去优化App的使用体验。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

与iPhone同等重要的AR

2017年一整年,CEO库克在各个场合强推AR,在他看来AR对苹果的重要性,正如iPhone对苹果的重要性一样。在今年的WWDC上,AR其实是放在最前面的,也花费了很大的时长介绍了多项更新,也说明了AR在苹果战略中的有很重要的地位。

去年WWDC,苹果公布了其进军AR的第一步,推出了AR软件开发套件——ARKit。在过去一年里,iPhone手机里的AR应用数量已经上千。WWDC 2018 苹果介绍了全新的ARKit 2。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

ARKit 2主要有两项更新:与Pixar合作的新的文件格式USDZ和多人共享AR。
 看似无聊的本届WWDC背后,苹果在布局怎样的未来?USDZ是一个独立的AR文件格式,可以通过苹果的File、Safari、mail、message等应用分享。然后你可以打开文件,将AR效果直接置于现实环境中,就可以完成便捷的AR效果体验。而Adobe、Autodesk、Sketchfab、Quixel这些工具都可以创作出USDZ格式的AR文件。那么,不会使用Unity等专业的软件设计工具的非专业人员也能创作出AR内容,这将会极大地丰富AR内容生产。
 看似无聊的本届WWDC背后,苹果在布局怎样的未来?

ARKit 2的另一项更新是多人AR。在此之前,AR游戏只支持单人,这大大降低了游戏的趣味。很多业内人士也告诉雷锋网,多人AR游戏是促进AR内容发展的关键点。有了多人AR之后,想象一下,把王者荣耀的游戏场景投射到现实世界,然后你和队友一起在现实空间里跑来跑去,其乐趣是不是比呆坐着盯着手机体验强多了!有了多人AR,2018年AR内容的丰富度和可玩度将极大提升。 

苹果在AR上的技术进步其实也是来自于AI技术的发展,ARKit所需要的环境识别、3D渲染其实都需要AI技术提供支持。全新的Memoji功能也彰显了苹果的AR和AI 不分家的特点。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?苹果在去年推出了Animoji,其可以通过iPhone X刘海部分的原深度摄像头来检测人脸,追踪人脸的表情和动作,实时驱动动物表情包,生成每个人特制的动态表情。Memoji的更新在于现在用户可以定制出自己的形象,然后再加入动态表情,生成表情包。苹果还将这项功能加入了Message的多人视频通话中。

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

在AR方面,苹果一直在憋的大招还有AR眼镜。

雷锋网曾报道,库克曾坦言目前的AR技术不成熟,“AR要理解世界需要大量的技术,目前的技术只能将AR运用于iPhone或iPad之类的先进设备中。如果将AR应用于其他设备上,那么你永远不会获得这样的商业机会,不会有1500万个设计者说我想借助AR释放我们的设计激情。” 

手机AR可以帮助苹果迅速在AR市场布局,同时,AR眼镜的技术还需要时间来积累。库克也说道:“好的视场技术和高质量的显示器都尚未出现,”他说。像所有产品一样,苹果公司只会在保证品质的前提下进军新的领域。“我们不在乎成为第一,但我们想成为最好,提供一流的用户体验,”库克说:“但现在可以在市场上随时都会看到的东西并不是令我们满意的产品,我也不认为绝大多数人会感到满意。”

小结

从苹果的AI和AR布局,雷锋网发现,苹果的风格通常不是一旦有新技术就拿来做产品,而是等到成熟一些、确认能够对用户体验带来改善,才会凭借高超的工程能力把他们运用在产品中。现在人工智能技术、AR技术还处在起跑阶段,不管是发力智能云和智能边缘的微软、还是以AI First的谷歌、还是重视应用的苹果,都还无法确定谁的路才是更好走、更快捷的一条。


 

 

相关文章:

Google I/O 2018 : 这里是所有你不能错过的大新闻

微软 Build 发布会总览:虽然 Windows 10 缺席,但亮点依然很多

Build 大会中的 AI:微软 AI 云服务全线更新

苹果开放机器学习API,但是没有看到苹果的机器学习开发平台

长按图片保存图片,分享给好友或朋友圈

看似无聊的本届WWDC背后,苹果在布局怎样的未来?

扫码查看文章

正在生成分享图...

取消
相关文章