想象一下这些画面,带上虚拟现实头盔,然后在虚拟世界中用手拿起一把剑举在头上;用你的手控制机器毫不费力地拆解一英里外的复杂的炸弹;用手控制屏幕来画一幅画;或者,你可以像电影《少数派报告》中那样,控制电脑来为你处理文档。
现在这些都可能成为现实,最近微软推出了新的手势实时追踪技术——Handpose,这项技术能让计算机通过微软的Kinect精确跟踪带手部动作,虽然这并非什么全新的发明,但Handpose的速度更快,感应距离更远。它不仅可以用于现有硬件,将来也能够用到手机上面。
要使用 Handpose 软件,用户首先把手放在 Kinect 前面,让计算机创建一个 3D 模型。实验前会有大约一秒钟的认证,认证比iPhone Touch ID还要精确,可测量用户的指纹。然后系统会创建用户手的3D模型,当用户做手势的时候,屏幕上的手会以30帧每秒的播放速度实时做出相应的动作,那时候,用户就可以像使用自己的手一样来控制屏幕上的手。
微软机器学习和感应部门的首席研究员 Andrew Fizgibbon 说,Kinect 最开始的时候很擅于探测身体动作,包括头部、腿部和手臂的活动轨迹,但是,在辨识手部动作含义时,它的表现乏善可陈,只能大概了解你的手掌和手腕在哪里,当你做出简单的手势,比如赞成或反对的动作,它不能将其区分开来。
如果能够准确地跟踪用户的双手位置,包括每个指关节的角度,那么,运动感应技术能够产生一套全新的用户界面,这套界面被称作是 Direct Physical Interface。在与虚拟物品交互的时候,用户可以伸手抓住它们,就像是对待实物一样。
不过,要做到这一点并不容易。要想识别手部动作,运动追踪系统需要监测手上 30 个数据点。看起来不多,但是这些点的组合却有万亿种。同时,在特定的手势中,有些手指会隐藏起来,无法被感应器识别到。因此,即使是不精确的手势辨识,也是非常困难的事情。
Handpose 的算法大大提升了计算机对手势的识别能力,并且速度提高了十倍,把万亿的猜测降低为 200 种可能的猜测。如果把目前的手势识别系统类比为 90 年代 Palm OS 上的手写,那Handpose 则相当于现在的手写识别系统。
Handpose 仍然需要完善,但只要将其速度提升两倍以上,就能够实现精确的手势识别。到了那个时候,它将会改变我们与计算机、虚拟现实、电视机等的交互方式。
这一目标何时才能实现呢,据Fitzgibbon说:“我记得,盖茨曾经说过,你会高估一年内能完成的事情,但是低估 10 年内能完成的事情,那么,就让我给个中间数。或许是 5 年吧。”
via fastcodesign
《脑洞》(微信号:woaiqiku)是雷锋网旗下新栏目,关注一切令人脑洞大开的科技产品、技术、人物、事件及点子。我们认为,人已知的世界是一个球,球外是未知世界,脑洞越大球越大,你所能接触的令人惊奇的事物就越多。