资讯 人工智能学术
此为临时链接,仅用于文章预览,将在时失效

人类拥有智慧和愚蠢两面,AI要类人,愚蠢是否也必不可少?

作者:bluemin
2020/06/22 10:23

像人一样,似乎是 AI 发展的最终目标。

然而众所周知,人类有智慧和愚蠢两面, AI 要类人,是否也需要具备这两面性呢?

从一开始为测试 AI 是否能像人一样而生的图灵测试来看,人类在完成计算等任务时,算出来的答案可能存在一定的错误率并且需要花一定的时间来完成计算,当能立马说出正确答案的 AI 也模仿人类这样的计算过程,人类和 AI 就无从判别,这便是 AI 模仿人类愚蠢,从而实现“类人”的一个方面。

从人类自身的成长和进化而言,从小时候蹒跚学步被自己绊倒开始,人类一开始犯的错误或者说愚蠢,会为未来的经验和智慧铺路。因而,看似一无是处的“愚蠢”,可能会为 AI 变得更加智能提供另外一种可能性。

本文便聚焦 AI 是否也需要向人类一样拥有愚蠢这一属性进行了探索,相信会给大家一些思考和启发。

一. 愚蠢 or 智慧

我们通常似乎都知道评价一个人很聪明的含义。反之,当给一个人贴上“愚蠢”的标签时,问题随之而来,这究竟意味着什么?例如,愚蠢是否意味着以零和的方式缺乏智慧,或者愚蠢是否占据了自己的空间,并作为一个平行的等同物与智慧为邻?

针对这一沉重的问题,我们不妨来做一个思考实验。假设我们有一个装满智慧的桶,我们把智力当成是有形的东西,可以把它倒进手边的一个桶里,也可能把它从桶里倒出来。让装满智慧的水桶倒在地上,还剩下什么?

一个答案是,桶现在已经完全空了,桶里什么都没有了,也就是说,水桶变得空空如也。另一个答案是,水桶里的智慧被清空,便剩下一个由愚蠢组成的残骸。

换句话说,一旦你丧失了所谓的聪明,剩下的就是愚蠢。

这是一个看似深奥的讨论,但稍后你会看到,这一观点对许多重要的事物都有相当深刻的影响,尤其是对于人工智能的发展和崛起而言。

智慧可以在没有愚蠢的情况下存在吗?或者从实际意义上讲,如果智慧与愚蠢并存,又总是必须存在一定数量的愚蠢吗?有人断言,智慧和愚蠢是禅宗般的阴阳。 从这个角度讲,除非你也有一种可以作为衡量标准的愚蠢的表象,否则将无法洞悉智慧的本质。

据说随着时间的流逝,人类变得越来越聪明,从而降低了他们的愚蠢水平。你可能认为智慧和愚蠢在玩一个零和游戏,也就是说,当你的智慧上升的同时,你的愚蠢水平正在下降(同样,如果你的愚蠢上升,这意味着你的智慧下降)。人类能达到100%的聪明和0%的愚蠢吗?还是无论我们多么努力地去变得100%聪明,我们注定总会有一些愚蠢?

回到桶的比喻,有些人会说,人永远不会出现彻底而又完全聪明,并且完全摆脱了愚蠢的情况。总会有一些愚蠢在那只桶里“正襟危坐”。如果你聪明伶俐并且奋发努力,尽管桶里仍然还剩一些愚蠢,你也许可以缩小自己的的愚蠢度。

二. 愚蠢对智慧有利还是有害?

你可能会想当然地认为,任何愚蠢都是坏事,因此我们必须一直努力把它“关”起来,或者避免它的出现。但我们需要问的是,那种把愚蠢归为“坏”范畴、把智力归为“好”范畴的简单观点,是否有可能遗漏更复杂的东西?你可能会争辩说,有时候在有限的范围内变蠢,可能会为提升智慧提供一种途径。

当你还是个孩子的时候,假设你愚蠢地被自己的脚绊倒了,这样做之后,你就会意识到之所以被绊倒是因为你没有小心地抬起脚。从那时起,你就会开始更加注意如何走路,从而在走路时变得聪明起来。也许在晚年,当你走在一个羊肠小道上时,能够设法避免自己从路边摔落,部分原因便是愚蠢引发的早期人生教训,已成为你智慧的一部分。

当然,愚蠢也会给我们招来麻烦。尽管你从愚蠢中学会了走路时的小心谨慎,但如果有一天你打算在大峡谷的边缘昂首阔步,你会摔入深渊。在悬崖边上这样走路是明智之举吗?显然不是。

因此,我们要注意到,愚蠢可以是朋友,也可以是敌人,而在任何特定的情形和任何特定的时刻下,究竟是哪一个,取决于智慧部分。你可能会想象到,智慧和愚蠢之间正上演着一场永恒的斗争。

另一方面,你可能同样会想到,聪明和愚蠢双方是伙伴,彼此拉扯在一起,因而这不是一场特殊的战斗,因为这更像是围绕哪一方占上风以及彼此如何协调和互相帮助的一场微妙的舞蹈或者说博弈。

三. 该认真思考下人工愚蠢了

我们每天都听到关于人工智能的来临如何改变我们的生活的言论。人工智能技术正在载入我们的智能手机、冰箱、汽车等等。如果我们打算把人工智能融入我们使用的物品中,那就引出了一个问题:我们是否需要考虑“阴中有阳”,特别是我们是否需要充分了解人工愚蠢?

大多数人听到或看到“人工愚蠢”这个词时都会忍俊不禁,他们认为提到这样的事情一定是某位知情者的玩笑。诚然,人造和愚蠢这两个词的结合,似乎本身就很愚蠢。

但是,通过回顾之前智慧和愚蠢在人类中所起作用的讨论,你可以重塑自己的观点,并可能发现,每当你进行关于智慧的讨论时,不可避免地也需要考虑愚蠢的作用。

有些人建议我们应该使用另一种表达人工愚蠢的方式,来减少大家的窃笑,浮夸的词组包括人工智障、人工人性、人工迟钝等等,但这些词都还没有深入我心。请容忍我暂且使用“人工愚蠢”的措辞,并且坚信讨论“人工愚蠢”其实并不愚蠢。

确实,你可以提出讨论人工愚蠢的行为是愚蠢的做法,因为你不愿意或不接受这样一种认识,即愚蠢存在于现实世界中,因此存在于我们试图重现智能的计算机系统的虚拟世界中,如此一来你会忽略或忽视原本作为“等式另一半”的愚蠢。

简而言之,有人说,真正的人工智能需要将我们现在所认为的“聪明”或者说良好人工智能与人工愚蠢(毫无掩盖)进行结合,而这种结合必须以聪明的方式实现。

有观点认为,通过将人工愚蠢纳入人工智能中,你将从根本上无可挽回地给人工智能系统引入了愚蠢,因此可能最终会使AI变得愚蠢。事实上,我们可以通过驳斥此观点来应对许多人对这个概念的直接下意识反应。

当然,如果你采用愚蠢的方式引入愚蠢,则很有可能有害于 AI 系统并使它变得愚蠢。另一方面,如果了解人类的运作方式,在深思熟虑的情况下将愚蠢行为引入,最终则有可能会帮助AI提升智慧(想想儿时绊到自己脚摔倒的故事)。

迄今为止AI还远没有达到人类的智能水平,也许实现真正和完整的人工智能的唯一方法,就是将人工愚蠢融入人工智能;因此,一旦我们与人工愚蠢保持距离或将其视作弃儿,我们会身陷囹圄,像人类一样智能的 AI 将遥不可及。也就是说,如果把人工愚蠢排除在我们的思维之外,我们可能会阻止AI到达巅峰。这就像是一记重拳并且如此反直觉,以至于常常会阻碍人类往这个方向发展 AI 。

然而现实是,越来越多的迹象表明,揭示和利用人工愚蠢(或任何它应该被称作的称呼)的重要性, 对 AI 的发展大有裨益。

我断定,真正的无人驾驶汽车的诞生,可能就涉及到将人工愚蠢纳入到系统之中。这是不是很令人震惊?或许如此。下面我们不妨来剖析一下这件事。

四. 利用人工愚蠢获益

当谈到真正的自动驾驶汽车时,我将重点关注L4和L5级的自动驾驶汽车。这两个级别的自动驾驶汽车,由人工智能系统自动驾驶,没有必要并且通常不配备人类司机。人工智能负责所有的驾驶操作,所有人类乘坐者都为乘客。

关于人工愚蠢的话题,有必要快速回顾一下术语产生的历史。在20世纪50年代,著名的数学家、计算机科学先驱艾伦·图灵提出了众所周知的AI图灵测试。

简而言之,图灵测试就是:让你跟一个搭载人工智能的计算机系统进行交互,并同时与另一个人交互,而你事先没有被告知哪个是AI,哪个是人类(假设它们都隐藏在视线之外),要求你通过与对方对话,来判定哪一个是AI,哪一个是人类。如果你无法区分这两个参与者,就可以宣布 AI 通过了测试。从这个意义上讲,AI无法从人类参与者被辨别出来,并且在智能交互中必须被平等对待。

其实最初的图灵测试有一个急转弯。如果提问者很 “狡猾”,要求这两个参与者将圆周率计算到千分位数。想必,AI会在一眨眼的工夫里十分出色地、轻而易举地告诉你答案,而且非常精确和完全正确。但是人类很难做到这一点,如果用纸和铅笔费劲地计算,则要花相当长的时间才能回答这个问题,并且最终很可能答案错误。

图灵意识到了这一点,他认为通过提出这样的算术问题,基本上可以揭开人工智能的神秘面纱。紧接着他又采取了另一举措,有人认为这一步打开了潘多拉盒子,并暗示AI可能会故意错误地回答算术问题。简言之,AI可以试图愚弄提问者,表现得像人类一样回答问题,比如故意给出错误的答案,以及耗费与人类手动计算大致相同的时间。 

勒布纳奖( Loebner Prize)设立于20世纪90年代初,这是一项类似于图灵测试的竞赛,会给予获奖者丰厚的现金奖励。在这项竞赛中,人工智能系统通常会被加入类似人为的错误,以蒙骗提问者将AI 判断为人类。但这背后引发了争议,在此不做过多讨论。1991年,《经济学人》刊登了一篇有关该竞赛的经典文章。再次具有讽刺意味的是,引入愚蠢实际上是为了描绘某种事物是聪明的。这个简短的历史经验为此次讨论的下一要素做好了铺垫。 

让我们将人工愚蠢的话题归结为两个主要方面或两种定义:

1) 人工愚蠢是有目的地将类人的愚蠢融入到人工智能系统中,这样做是使AI看起来更像人类,目的不在于提高AI本身,而是为了塑造人类对AI的感知,使其看起来更智能。

2) 人工愚蠢是对人类无数缺点的承认,这种“愚蠢”可能以一种联合的方式融入AI或与AI齐头并进,如果处理得当可能会改善AI性能。

关于第一个定义,我想澄清一个常见的误解,其涉及的假设有些瑕疵,即计算机可能会故意错误地计算某些问题。有些人震惊却又不屑地尖叫着说,可能存在令计算机蓄意寻求错误计算的暗示,例如以欠缺准确性的方法计算出圆周率!其实这个定义并不一定意味着这一点。这大概是因为计算机可能会将圆周率正确地计算到千分之一位,然后选择微调一些数字,再来回答调整后记录下来的答案,并在眨眼间完成,然后等待与人类手动计算耗费的相同时间量后显示结果。如此一来,计算机内部其实已经有了正确的答案,只是显示了似乎有错误的答案。

这种情形对那些依赖于计算机所报告数据的人来说无疑是不利的,但请注意,这与计算机实际上错误计算出的数据截然不同!这两者间的细微差别,其实还有很多内容可以介绍,但现在,让我们继续前面的分析。人工愚蠢的这两个方面都可以应用到真正的自动驾驶汽车上,但是这样做会带来一定的问题,值得斟酌。

五. 人工愚蠢与真正的无人驾驶汽车

如今,在公共道路上试用的自动驾驶汽车已经凭借其高超的驾驶造诣名声大噪。总的来说,无人驾驶汽车像一个年轻的新手司机,对驾驶任务既胆怯又有些犹豫不决。当你看到一辆无人驾驶汽车时,会发现它通常尝试在其与前方汽车之间创建一个较大的缓冲区,并尝试遵守我们初学驾照时保持车距的经验规则。人类司机很少考虑车距的安全区,往往喜欢把其他汽车挤到一边,其实这样做容易对自己造成危险。

下面是另一个无人驾驶汽车练习驾驶的例子。当看到停车标志牌时,无人驾驶汽车通常会完全熄火。它会等着看行驶道是否安全,然后谨慎前行。然而在人类世界,没有人会在停车标志处完全熄火,现在滚动停车是一种常态。你可以下结论,人类的驾驶方式是鲁莽和有点愚蠢的。由于你的车和前面的车之间没有足够的车距,这会提高发生追尾事故的几率。不能在停车牌处完全熄火,会增加与另一辆车或行人相撞的风险。

以图灵测试的方式,你可以站在人行道上看着从你身边经过的汽车,仅仅观察他们的驾驶行为,你就可以确定哪些是AI驾驶的汽车,哪些是人类驾驶的汽车。听起来熟悉吗?大抵如此,因为这与之前提出的算术精度问题异曲同工。

如何解决这个问题?一种方法是引入上述定义的人工愚蠢。首先,你可以让车上搭载的 AI故意缩短车距缓冲区,使其看起来像人类一样在驾驶。同样,可以设置 AI 滚动通过停车标志,这一切都很容易部署。这样在观察行驶过的汽车时,究竟是AI还是人类在驾驶便很难区分出来,因为他们两者在驾驶过程中所犯的错误如出一辙。这似乎解决了一个问题,因为它关系到我们人类对自动驾驶汽车 AI是否智能的看法。

但是,等一下,这种做法难道不是在将AI变成风险性更高的“驾驶员”吗?我们是否是在试图提高这种人为驾驶导致的危险车祸的发生率呢?理智地说,不是。

我们再转向人工愚蠢的第二个定义,即通过以一种实质性的方式将这些“愚蠢”的驾驶方法并入AI系统中,使AI在驾驶汽车时能够考虑这些因素,同时也有强烈的意识来避免它们或在特殊时刻谨慎应用这些方法。与其让AI盲目地以人为错误的方式驾驶,不如开发AI,使其拥有强大的能力来应对人类驾驶的缺点,发现这些缺点并在有需要的场景下利用好这些缺点,让AI成为名副其实的安全型“驾驶员”。

六. 结语

当今人工智能最显而易见的瓶颈之一,便是它不具备任何常识推理能力,并且完全不具备人类进行整合推理的能力(许多人称这样的人工智能为人工通用智能或 AGI)。因此,有人认为当今的AI更接近“人工愚蠢”的一面,而不是真正“人工智能 ”的一面。如果人类拥有二元性的智慧和愚蠢,那么AI系统要想彰显出人类一般的智慧,可能也需要具有类似的二元性(但也有声音说 AI可能不必步人后尘)。

我们正在在道路上投放所谓的AI自动驾驶汽车,然而AI没有知觉,并且不是所有的部分都能够拥有感知能力。自动驾驶汽车只有在能够进一步向智能阶梯攀登的情况下才会成功吗?目前无人知晓,但这绝对不是一个愚蠢的问题。

https://medium.com/@lance.eliot/why-artificial-stupidity-could-be-crucial-to-ai-self-driving-cars-2b4955f92321  雷锋网(公众号:雷锋网)雷锋网雷锋网

文章点评
相关文章