MIT Media Lab的Daniel Leithinger坐在WE大会的采访间里,他的两手不停地把玩着一部刚刚上市不久的Moto X二代。在整个采访中他时不时地把现在的手机称为“boring”。而当他试图打开Google准备给记者们解释一个名词时,“...doesn’t seem work.” 于是整个屋子的记者都笑了。
对于墙内的大多数,Daniel这个老外名字我们并不熟悉。Daniel是MIT的交互设计师,今年MIT Media Lab推出一款3D立体显示inFORM,便是他的作品。在现有成熟的视觉交互之外,Daniel极力推崇触觉交互。
举个例子,inFORM本身便是一个将视频、图片转化为针状有型界面的装置。
inFORM无论在过去还是现在都像是一个新奇的玩具,所以在场的记者们都问这种技术未来能应用在哪里。
Daniel的回答是,everywhere:
我们现在被各式各样的屏幕所包围,PC、手机、iPad。任何的信息都是图形化的、视觉的。而我们现在的尝试,就是试图脱离单一的视觉交互,让人们可以真实触摸到信息,甚至直接对信息进行操作。
他还举了几个例子:比如用一种流体材料把inFORM的技术放到手机上,当手机提示“确认”时,屏幕上就会凸起出一个“确认”按钮,而不再是单一平面的。inFORM的技术可以用来改造空间,比如未来你只有一个十几平米的房子,前一分钟这里是个卧室,下一分钟整个空间就可以变形成一个客厅。
互联网终端(device)被创造出来的初衷是为了传递信息,而图形、文字这些视觉化的方式是信息传递最高效的路径。但当我们超越了追求信息效率的阶段,下一步会是什么?Daniel的答案是将线上虚拟的信息世界还原为线下真实的物理世界。而现在,在追求信息效率上,可以说我们人类能达到的技术已经相当成熟。
所以下一步我们需要什么?
捕捉、语汇、载体、网络...
WE大会的另一位触觉交互创新者Rajinder Sodhi在回答上段末的那个问题时,给到雷锋网的答案是语汇,也就是两个世界相互转化的编码.
跟inFORM的交互方式不太同的是,Rajinder主导的技术借用了空气而非针状的小方块,这项技术叫做AIREAL。比如,当用户玩一个足球游戏时,AIREAL推送出来的空气可以模拟守门员扑球时手掌的感受,配合Kinect和大屏幕显示,用户的感官越发趋于真实。
无论inFORM还是AIREAL,它们都是未来的内容输出设备,那么对应的理想输入方式是什么?
Raj说他们在开发AIREAL的时候做了大量反复的实验,在人群中测试一个石头的触感、砂子的触感、蝴蝶停在皮肤上的触感等等,然后通过调节空气的推送喷射来模拟这些触感,而产生这些感觉的代码便是两个世界交互的语汇。
除了语汇,未来的触觉交互还需要更丰富的信息捕捉技术(比如从2D进化到3D捕捉的摄像头),更逼真的感官载体(超越inFORM和AIREAL的装置和材料),低延迟的网络等等。
Daniel和Rajinder所为之努力的方向是将信息尽可能还原为真实,而交互领域另一个著名的产品Oculus则是将现实尽可能保真地转化为虚拟。Daniel和Rajinder都认为当这两个方向打通的时候,就没有真实和虚拟世界之分了——或许是未来的黑客帝国。
触觉交互仅仅时WE 2014的一角。像Daniel和Rajinder所在的机构和企业还未成为商业上非常成功的案例。WE 2013的主题时Way to Evolve,今年时Nothing but the Future。腾讯在这两年的大会上甚至有意避免了商业上非常成功的公司。撇开中国创业圈今年最爱听的商业故事,WE 2014我们可以期待一点——something from the future。