电脑是如何做出选择的呢?
这个问题需要分两种情况回答。从过去的眼光来看,电脑所做的选择都是程序员写程序时事先编写好的,当电脑遇到问题时,只需按照事先编写好的程序进行选择就行。不过,随着人工智能的崛起,深度学习技术开始占了上风,现在电脑做选择可没有过去那么非黑即白了。但是,技术人员开发程序时大多数不会考虑这一点,他们大多只是选择一个能产出正确结果的算法而已,没人会在乎这个结果是如何得来的。
当然,这也不能全怪技术人员,毕竟当程序的准确率达到99%时,还有谁会在乎其深层内涵呢?不过,既然一个马蹄铁就能毁掉一场战争,那么我们就不得不注意到那剩下的1%。如果这不起眼的1%会涉及到生死抉择,那么搞清楚电脑如何思考就变成了重中之重。
就拿最近闹的沸沸扬扬的特斯拉Model S致死事故来说,为什么这辆车的自动驾驶系统没能识别前方的拖挂卡车呢?眼下,我们大致知道了原因(那天天气晴朗阳光充足,拖挂车漆成了白色,电脑没能将其与天空区分开),但我们却不了解电脑做决定的过程,或者说如何在未来避免这种情况再次发生。“我想,特斯拉的工作人员肯定也在想着同样的问题:这种情况到底是怎么发生的呢?那么大一辆车,为什么电脑就没能识别出来呢?”Dhruv Batra教授说道,他是弗吉尼亚理工大学的机器感知专家。“如果只是靠车上的‘黑匣子’来分析事故,我们永远也找不到答案。”
此外,Batra教授认为让AI的决策透明化与选择一种合适的教育方式同样重要。一个差老师只知道要学生死记硬背,靠记忆力应付考试,而好老师则注重方法的传授,他会让学生解释自己得出答案的全过程。对待电脑,人类也要当个好老师,让它们将自己的思考过程娓娓道来。
近日,Batra教授的两个学生Abhishek Das和Harsh Agrawal针对该问题进行了一番研究。他们让两个人和两台专攻物品识别的神经网络机器进行图像识别比赛,随后在比赛中观察他们眼神的落点,并对比人与机器在选择过程中的不同。因此,当听到“图中男人的鞋是什么颜色?”的问题时,你可能觉得人和机器的眼睛都会齐刷刷的望向图片底部。不过,Das和Agrawal发现,现实与你的想象有所不同。
为了对比人与机器的不同,研究人员打造了“注意力”热度图,热度图可以叠加观察。如果结果完全无重叠,参数为0;如果完全重叠,参数则为1。结果显示,人类的热度图参数为0.63,而机器则只有0.26(注意力跑偏了)。
要解释这一差别其实很难。举例来说,当要求人和机器回答“遮挡窗户的是什么?”(百叶窗)的时候,人的眼神会直接聚焦在窗户上,而机器却谜一般的将精力集中在了床上。
Batra教授认为,这一异常现象的出现,是神经网络的训练方法所致。由于英文的特殊性,在向神经网络展示卧室(bedroom)图片时,它们会首先注意到“bed”(床)这个词,因此在听到问题后算法会首先将注意力集中在床上。“它们回答问题时首先会向自己的数据库求证,而不像人类一样注重实践。”Batra教授说道。
这样的误差在解决一些小问题时绝对无伤大雅,但如果机器学习算法未来想担起大任,研究人员就要搞清楚它们是如何做出抉择的。
在谈到如何发展负责任的AI时,微软CEO列出了6点关键目标,其中透明度就排在第二。“我们需要的不只是智能的机器(intelligent machines),而是可理解的机器(intelligible machines);不只是人工智能(artificial intelligence),还要是共生智能(symbiotic intelligence)。纳德拉说道。“技术要能理解人类,而人类也必须要了解机器。人类应该明白技术是怎样「看」这个世界、「分析」这个世界的,这样能让道德和设计携手并进。”
Batra教授认为,这些步骤虽然麻烦,但他是人类通往未来的必经之路。“如果我们要将AI引入日常生活,它们就要学会与人类沟通,但前提是人类要建立起对它们的信任。”他说道。“到时,一定有人会问AI‘你为什么要说这些啊?’机器人则需要给出一个令人信服的答案。”未来,人工智能的训练主要还是靠数据库,但研究人员也应及时将其行为与人类做对比,找出差别之处来进行针对性的修正。
虽说这样会增大训练深度学习和神经网络系统的成本和时间,但Batra教授相信这些花费是必要的。“这有利于人与机器之间信任的建立,”他说道。“同时我们还能增进人与机器之间的相互理解,提高人工智能的表现。”