雷锋网按,2012 年,特斯拉 Model S 首次将一块大屏应用在汽车内——一场车载显示屏的变革由此拉开。
如今,大单屏、双屏、连屏、置顶屏等创新式的车载显示屏百花齐放,而且,随着计算芯片、智能语音、手势交互以及 AR HUD 等技术的逐步成熟,智能座舱已经由概念化为实际。
换句话说,以往布满按键的汽车中控台,已经开始被大屏幕所取代;过去单一的按键和旋钮操作,如今正在演变为语音+手势+触控的乃至眼神的多模态交互。
那么,未来,汽车里真的只剩下屏幕吗?物理按键和大屏是否天生冲突?用户究竟需要怎样的交互体验?
为了解答这些问题,近日,仙豆智能公开课以《消失的按钮和进击的大屏》为主题,邀请业内专家共话智能座舱时代交互,包括同济大学人车关系实验室研究与项目负责人龚在研、小米人工智能部设计总监刘静、仙豆智能用户体验设计专家于吉良。
雷锋网按:图片从左至右依次龚在研、刘静、于吉良
龚在研表示,车内的智能座舱发展会经历功能罗列、多感观交互、信任感建立和想我所想无感沟通的过程。因此,智能座舱的发展可以分为三大阶段,即1.0-3.0时代。
1.0时代。2000年-2012年,这段时间智能座舱发展主要就是为了实现更多的功能,进行功能拓展。也正是在这个阶段,车内开始有了彩色的显示屏。
2.0时代。2012年-2018年,除了传统的按键,车内开始出现更大尺寸的触摸屏,甚至出现多模态交互的方式的程度,比如语音交互。
3.0时代。智能座舱要能够实现更好的直觉化交互,人工智能的系统要在很大程度上了解和预测用户的想法,而不需要用户一步一步去操作。
不过,龚在研认为,手机将无法满足并引领智能汽车体验的3.0时代,因为手机和车机的生态要全面打通十分困难,而且,基于手机的解决方案缺乏沉浸感,场景定义也不够深入。
尽管国内不少企业致力于打造智能座舱,并且确实做出了充满创意的成果,不过,龚在研认为,光有创意还不够,还要有章法,要有科学和系统的设计原则来指导相关的创新。
因此,在龚在研看来,更多更大的屏幕在短期内确实是一个智能座舱的发展趋势,然而,随着时间的发展,仅仅只是在信息和内容的呈现上已经无法满足用户的体验,更重要的是车内氛围的设计和营造。
作为在手机领域,手机交互的本质就是输入和输出,提升用户体验的关键就是让输入的效率更高,方式更自然;让输出的内容更丰富、更易于理解。尽管由于使用的场景不同,手机和车机之间还存在一定差异,但手机行业发展十几年来的经验,值得汽车厂商去借鉴。
刘静认为,智能座舱的感知能力和理解计算能力都是不易于「被看见的」,但交互能力则不一样。
从目前的情况来看,语音之外,触控、手势、眼球追踪等多模交互的方式已经逐渐搭载上车。但刘静认为,车载语音交互的识别率、反应速度、语义理解、离线服务、使用指引等方面仍需提高和细化,主动交互能力还需要加强。
他说道,很多车现在还没有达到智能的程度——通过语音来控制开关灯此类功能并不能算作“智能”。智能的车应该拥有更高的理解能力,能够对用户提供更为复杂的辅助,然而逐步到全车智能。
但现在,随着用户需求的激增,各式各样的交互功能不断堆砌, HMI 的设计也变得复杂起来。
至于车内是否需要物理按键的问题,刘静的看法是,科技发展推动交互方式呈现多样化和智能化,但考虑到人的习惯延续性还是有必要保留少数物理按键。
于吉良也认为,随着智能汽车的发展,用户会逐渐依赖包括触控、语音在内的多模态交互,这也意味着 HMI 设计面临着巨大的挑战。比如,如何使用语音、眼球追踪、面部追踪、触控、手势、AR虚拟现实的技术来代替原始最快、最直接、最简单的按键。
尽管目前车规级芯片的能力已经有所提升,能够承载更多的功能,但于吉良表示,恰如其分地为用户提供服务才是最好的。因此,仙豆的方案是“勇于做减法”,为用户提供易于使用的界面。
如何化繁为简十分考验车机交互和设计能力。仙豆打造了“服务即桌面”的产品理念,通过小窗口、多任务、快触达的方式,为用户提供易上手的交互体验,轻松实现盲操,同时也减少繁琐的交互步骤,降低对屏幕和按键的依赖。
那么,未来,智能座舱里的物理按键将彻底消失,由车载大屏替代?对于这个问题,于吉良认为答案是肯定的。他解释道,面对汽车智能化与自动化的到来,汽车本身已经从交通工具变为了出行服务工具,车内大屏承载了更多信息交换功能;而且,车内大屏可以完美掩盖了某些品牌内饰设计与做工的缺点。
事实上,在这堂公开课之前,仙豆就已经对227名同学进行了小测试,其中,只有20.9%的认为不需要物理按键,也就是说,就目前而言,认为未来完全不需要物理按键的人还是占少数。
车载显示大屏是势不可挡的大潮,但物理按键短时间还有其存在的必要,看似“按钮”与“大屏”之争,实则是用户交互体验的升级之争。但无论如何,所有交互设计都要符合人的第一性原理——将需求缩减至其根本实质,走进人的内心。