资讯 智能驾驶
此为临时链接,仅用于文章预览,将在时失效

CES深度分析:自动驾驶呼唤理性决策(三)

作者:李星宇
2017/01/20 15:07

雷锋网注:本文作者李星宇,地平线智能驾驶商务总监。毕业于南京航空航天大学,获得了自动化学院测试仪器及仪表专业的学士和硕士学位;曾任飞思卡尔应用处理器汽车业务市场经理,原士兰微电⼦安全技术专家,有13年半导体行业从业经验。在加入飞思卡尔的早期,任职于i.MX应用处理器研发团队,在该领域取得一项NAND Flash存储应用美国专利。在士兰微电子负责安全芯片的公钥加密引擎设计,该引擎的RSA/ECC加解密性能处于国内领先水平。本文为CES深度分析第三篇,雷锋网授权发布。

一、决策算法成为竞争焦点

从技术角度讲,自动驾驶由三大主要技术构成:感知、决策和控制。现在自动驾驶技术真正的门槛在哪里?

CES深度分析:自动驾驶呼唤理性决策(三)

地平线自动驾驶技术架构

如果你去CES参观各家公司的自动驾驶样车,你会发现一个趋势:各家公司的传感器配置越来越趋同化:前视多目摄像头,77GHz长距/短距雷达、环视摄像头、加上十个以上的超声波雷达,豪华一点的再配上几个低线束的激光雷达,这些传感器的供应商也差不多。在感知层面,随着ADAS的大量部署和长时间的技术开发,已经相当成熟,可以说感知技术已经不是主要的瓶颈。而控制则是传统车厂和Tier1非常擅长的领域,做了很多年,积累了大量的经验。

自动驾驶在技术上的竞争,主要聚焦于决策环节。事实上,区分一个系统是ADAS还是自动驾驶,也主要是看该系统是否有决策部分。无论是谷歌,还是特斯拉,他们的核心竞争力,都还是体现在其决策算法方面。

传统汽车界的研发是基于功能安全的设计方法学建立的,渗透到开发流程的每一个环节,并且在过去一个世纪,将汽车的安全性提高到了极高的水准,如今,顶尖的公司已经可以确保汽车发动机能使用一百万公里!但是面对汹涌而至的机器学习热潮,传统汽车界突然发现自己严重缺乏技术储备,面对特斯拉和谷歌激进的策略,显得力不从心。这已经成为制约传统车厂开发自动驾驶的最大短板,目前,传统车厂或者大肆收购机器学习公司,或者与其合作,他们需要尽快补上这块短板。

传统车厂出身的克拉富西克显然深知这一点,在他出任Waymo CEO之后,谷歌一改之前模棱两可的商业策略,明确表示向车厂提供解决方案,并迅速宣布和本田合作,事实上是将自己定位在Tier 1的角色,此前谷歌虽然在技术积累上处于领先位置,但一直没有确定可行的商业模式,克拉富西克的到来,让谷歌对于商业化的态度更接地气,也更精准。在该解决方案中,硬件基本也是外购的,显然无法成为谷歌的竞争壁垒,最有价值的,还是一整套经过验证的软件,尤其是其中的决策算法。可以想象的是,谷歌将会向业界提供软件授权,就像它之前在安卓系统上所做的一样。

二、理性决策是必然趋势

决策算法面临的最大挑战,就是如何达到自动驾驶所需要的极高的安全性和可靠性。自动驾驶决策的结果会输出到控制器,根据ISO26262已有的功能安全的规定,这会反过来要求决策系统也需要达到ASIL-D的标准。目前,ISO组织对专门针对自动驾驶的功能安全标准正还在制定中,有可能会用一种新的标准进行考量,但功能安全的基本原则依然有效。

1、端到端的AI方法有隐患

这意味着,我们必须严肃地思考,如何才能满足功能安全的要求?对于谷歌、百度以及许多初创公司,这些非传统车厂出身的玩家来说,是一个全新的命题。

目前,很多创新公司都在使用深度学习加增强学习做端到端的训练,也就是说,从传感器的输入直接导出控制器(刹车、油门、转向等)的输出。但深度学习的问题在于它失去了透明性,仅仅依赖于概率推理,也就是相关性,而非因果推理,而这两者是有本质不同的。

相关并不意味着因果。举个例子,统计发现,手指头越黄的人,得肺癌的比例越大。但事实上,手指的颜色和得肺癌的几率之间显然没有直接的因果联系。那么为什么统计数据会显示出相关性呢?这是因为手指黄和肺癌都是由吸烟造成的,由此造成了这两者之间产生了虚假的相关性。

深度学习就像一个黑盒子,无法进行分析,出了事情你不知道原因到底是什么,也没有办法预测下一次会出什么状况,有一个很搞笑的例子,用深度学习训练一个系统,来分辨哈士奇和爱斯基摩狗,初步测试效果非常好,但进一步的测试表明,这个系统其实是通过区分背景,而不是狗本身来判定其种类的,因为训练所使用的样本中,爱斯基摩狗几乎总是伴随者雪地的背景,而哈士奇则没有,想想看,如果这样的系统应用到自动驾驶,是多大的隐患!

深度学习的实际表现,基本上取决与训练的样本以及你所要求输出的特征值,但如果你的样本比较单一,输出特征值又比较简单,则很容易训练出你并不想要的结果来。就自动驾驶而言,这是无法接受的,它需要高度的理性决策。

如今,深度学习的热潮席卷了整个业界,很多人不再对基础算法进行钻研,而是疯狂加大数据,堆机器进行训练,以期更快地出成绩,结果看上去还不错,但这样的非理性态度其实是给自动驾驶埋下了隐患。我们需要的是对于事实逻辑的深入分析,已经不同方法论的结合,从这个意义上讲,如果用小数据可以达到好的效果,更能说明我们对机器学习技术的理解能力。

2、基于规则的专家系统不灵活

传统的主机厂和Tier 1面临的则是另外的问题,如果接触各大Tier1的ADAS产品,无论是AEB,还是ACC,LKA,你会发现都是基于规则的专家系统。这种系统精确可分析,但专家系统的问题在于,但场景非常多变时,创建的规则就无法保证足够的覆盖面,结果,当添加更多新的规则时,就必须撤消或者重写旧的规则,这使得这个系统变得非常脆弱。

并且,各个功能都有自己单独的规则,组合到一起,其可能性就非常多,甚至还存在矛盾,这使得ADAS向自动驾驶过渡之路变得更加艰难。我曾经跟一家主机厂在交流他们的决策系统询问过这个问题,得到的答案是:这种基于专家系统的规则经过组合,能产生一万种可能!你甚至很难对这个系统进行完整的测试。

3、新的决策机制:因果推理

因此,我们需要在自动驾驶领域引入新的决策机制。自动驾驶决策技术路线的一个重大趋势,就是从相关推理到因果推理。这样的人工智能框架是Judea Pearl在八十年代建立的,他也因此拿到了图灵奖。

上世纪 80 年代初,Judea Pearl为代表的学术界出现了一种新的思路:从基于规则的系统转变为贝叶斯网络。贝叶斯网络是一个概率推理系统,贝叶斯网络在数据处理方面,针对事件发生的概率以及事件可信度分析上具有良好的分类效果。它具有两个决定性的优势:模块化和透明性

CES深度分析:自动驾驶呼唤理性决策(三)


地平线自动驾驶决策机制

模块化的优势非常重要,例如,假如任务是更新汽车的变速箱,当变速箱被更换的时候,你不必重写整个传动系统,只需要修改为变速箱建模的子系统,其余的都可以保持不变。

因此,我们可以把深度学习的系统作为一个子模块融入到其中,专家系统可以是另一个子模块,也融入其中,这意味着我们有了多重的冗余路径选择,这种冗余构成了贝叶斯网络的子节点,将有效强化输出结果的可靠性,避免一些低级错误的发生。

透明性是贝叶斯网络的另一个主要优势。对于自动驾驶而言,这尤为关键,因为你可以对整个决策的过程进行分析,了解出错的哪一个部分。

可以说贝叶斯网络是理性决策的极佳实现,适合用于设计整个决策的顶层框架。

因果推理的另一个典型范例就是基于增强学习的决策框架,它把一个决策问题看作是一个决策系统跟它所处环境的一个博弈,这个系统需要连续做决策,就像开车一样。优化的是长期总的收益,而不是眼前收益。这有点像巴菲特的价值投资,优化的目标不是明天的收益,而是明年或者十年以后的长期总收益。

谷歌把这样的框架用在下围棋上,取得了革命性的成功。自动驾驶的场景也非常适合应用这样的决策系统。比如说要构建价值网络,评估当前的驾驶环境风险,评估的是从现在时间到未来时间的整体风险;然后利用策略网络输出本车的控制决策,选择最优的驾驶路径和动力学输出。

同时,我们还可以构建一个基于模拟路况的仿真环境,通过增强学习去做虚拟运行,获得最优的决策模型,并且还将产生大量的模拟数据,这对决策算法的成熟至关重要。

可以说,向因果推理型决策模型转化是自动驾驶技术迈向成熟的重大标志。

相关阅读:

CES深度分析:自动驾驶催生商业模式变革(一)

CES深度分析:自动驾驶产业化迈向纵深(二)

长按图片保存图片,分享给好友或朋友圈

CES深度分析:自动驾驶呼唤理性决策(三)

扫码查看文章

正在生成分享图...

取消
相关文章