近几年,传统汽车正逐渐发展为“轮子上的计算机”,经久耐用和车速早已不是消费者购车的标准,尤其自动驾驶的兴起,“可靠”的汽车正在走向“可信”的汽车。具体而言,是踩油门加速和踩刹车停车的动作转变为紧急情况下汽车自己做出的可信的决策与行动。
汽车如何自己做出决策?智能感知系统充当汽车的眼睛,是“可信”的前提。那么现有的汽车智能感知技术发展如何?距离“可信”汽车还有多远?
占据60%以上汽车成像市场份额和80%汽车感知市场份额的安森美半导体在上周五的一次媒体沟通会上做出部分解读。
爆发式增长的汽车传感
当汽车变得越来越智能甚至走向自动化时,一个显著的特征是汽车上的感知系统越来越丰富。
按照中国汽车驾驶自动化分级的规定,自动驾驶有从L0到L5共计6个等级,等级越高,意味着汽车的自动化程度越高,相应地感知配置也更加复杂。
具体而言,L0是系统仅有目标和时间探测与相应功能,对传感器还没有需求,L1级别解放双脚,要求系统可执行车辆横向或纵向运动,需要配置5颗图像传感器和4颗超声波传感器;L2解放双手,双手不用接触方向盘,需要配置8颗图像传感器、8颗超声波雷达以及1至3颗毫米波雷达;L3解放双眼,系统能够识别失效模式并发出接管请求,因此需要8-13颗图像传感器、12颗超声波雷达、3-5颗毫米波雷达以及1颗激光雷达。L4则是一个分界线,从某种程度而言驾驶员开车不用思考,意味着实现真正的自动驾驶,因此对各类传感器的数量要求更高,汽车传感器迎来爆发式增长。
那么,这些传感器具体有哪些用途?安森美半导体智能感知部门全球市场和应用工程副总裁易继辉在媒体交流会上说,现在的汽车就像一台架在四个轮子上的拥有极强感知能力的计算机,汽车的感知系统可以拆分为前视先进驾驶辅助系统(ADAS)摄像机、倒车摄像机、环视、摄像机监控(CMS)、舱内的驾驶员监控系统(DMS)和乘员监控系统(OMC)、毫米波雷达(Radar)和激光雷达(Lidar)。“现在最好的汽车感知系统已经远远超过人类的感知,有的驾驶员会出现疲劳驾驶和注意力不集中的情况,但是汽车的感知系统却不会”。
宽动态技术是成像的主要挑战
既然汽车的感知系统已经如此优秀,那么智能传感是否还面临一些技术挑战?
易继辉认为,宽动态、极限环境以及辨别LED指示牌和交通灯是当下汽车成像面临的主要挑战。
宽动态即动态范围,是指在摄像机在同一场景中对最亮区域及较暗区域的表现存在局限。对于汽车而言,当汽车逆光行驶时,尤其是从隧道驶出时或者夜晚遇到强烈的光线,如果宽动态较小,光线较暗的地方就会成为盲区,这对汽车而言是潜在的安全隐患,因此提高宽动态范围至关重要。易继辉也表示,宽动态也是从乘用车的L2、L3到商用上的L4、L5所面临的主要挑战。
对此,安森美半导体给出了自己的解决方案,易继辉介绍,安森美半导体最近上市的Hayabusa系列产品,是市场上具有最高宽动态效果和第一款具有网络安全功能的产品。“Hayabusa系列产品的图像传感器一共有6层,相当于在传统小像素旁安装一个大蓄水池,多余的电荷流入蓄水池中,光强增量,信息量提高,相应地动态范围也就增加了。”
安森美半导体的这一图像传感器最开始用在高端摄影机上,例如李安拍摄《少年派的奇幻漂流》使用的ARRI公司摄影机,就是用的安森美半导体的图像传感器,但现在这一技术已逐渐进入汽车行业。
据悉,而Hayabusa系列产品的曝光一次能够达到95dB,经过多次曝光可以达到120dB,在102dB场景下能够捕捉到详细信息,且下一代产品将会达到110dB。
对于辨别LED是指示牌和交通灯的挑战,易继辉表示,现在包括中国、欧洲、美国、日本、其他国家都已经开始在公路上实行LED电子管控牌,但LED的闪烁频率没有一定的标准,图像传感器经常无法捕捉到信号,虽然这对人眼而言不算挑战,但对于机器视觉却是很大的挑战。
不过,目前这一挑战的解决方案已经从软件层面发展到芯片级的解决方案。
进入L5,最缺的是生态链建设
在解决宽动态的问题时,易继辉也提到,尽管从硬件半导体的层面解决技术难题是最快的、性价比最高的,但是安森美半导体也有同一些软件公司合作,希望能够从软件的层面进一步改进这一问题,这同样也是汽车行业本身的愿景。
易继辉透露,过去的传感器公司同软件、特别是人工智能算法部门直接沟通的机会较少,但最终传感器所收集的信息依然需要计算机、人工智能、机器学习来处理,这些都是需要提升的方面。
据悉,目前智能感知产品已经广泛用于L2、L3和L4级别的汽车,在L4的使用上,汽车行业本身希望解决极限场景问题。
易继辉说,“极限场景问题并非是仅仅依靠图像传感器或软件、GPU、CPU就能解决,而是需要整个生态链的合作,寻找最优的解决方案。”
而从L4迈向L5,汽车必定需要更强大的人工智能技术学习所有应用场景,生态链建设将是从L4过度到L5的必经之路。
文中图片源自安森美
雷锋网雷锋网雷锋网
相关文章: