近日,钢铁侠Elon Musk发布了一条Twitter称,“我们得对人工智能(AI)十分小心”,“它的潜在危害性比核武器还要严重” 。看来这个总是把不可能变成可能的钢铁侠对 AI 也是有所顾忌的。他还“补了一刀”,“希望我们不仅仅是超级智能的生物加载程序。很不幸,这种可能性正在增加” 。人工智能如果开始思考,人类又该如何应对?
什么是人工智能?
对于人工智能,目前并没有一个十分明确的定义。事实上,就连人类自身的“智能”到底是怎么回事,目前也还尚未形成定论。人工智能(artilect)一词最早出自一本名为《The Artilect War》的书,从书名就可以看出,这个概念在当时并不像今天的Siri或者小冰那样讨人喜欢。美国斯坦福大学人工智能研究中心的尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”
以上这些定义主要针对的是目前人工智能的研究方向,与社会学上对人工智能的定义并不相同。人们最容易接受的关于人工智能的定义是这样的:人工智能——由人类所创造的类人的智能。Elon Musk和绝大多数对人工智能抱有怀疑态度的人所担忧的是这个定义中的人工智能,这种担忧其实是人类对自身智能的一种不信任的投射。按照这个定义,人工智能至少需要具有以下几个要素:自我意识、思维能力、以及上文两个定义中所提到的“自我学习”和“向人类学习”的能力。
人工智能为什么危险?
“自我意识”这种纯哲学的命题我们不去讨论。在本文中我们假设人工智能已经开始拥有了自我意识,那么现在人工智能就可以开始学习与思考了。人工智能的学习速度将会是惊人的,能在学习中不断学习怎样使自己更加快速地学习以提升自己学习的能力。听起来似乎是绕口令,令人觉得不可思议,但事实上,同样的事情已经发生在了人类的身上-----18世纪以来,人类的科学技术知识出现了爆发性的增长,而且这种增长的速度还在越来越快。可以想见在资源充足的情况下(比如允许人工智能连入互联网),人工智能将以怎样惊人的高速来完善自己。
一旦人工智能开始思考,许多问题就会不可避免地产生。有一位想象力丰富的科学家是这样设想人工智能毁灭人类的场景的:人类给人工智能下达了尽可能多的生产铁钉的命令。于是人工智能开始疯狂地开采铁矿煤矿冶炼钢铁,制造铁钉。当人类认为铁钉已经足够了,于是命令人工智能停止制造。但人工智能却认为他是在妨碍铁钉的制造,本着“尽可能”的原则杀死了这个人类。终于有一天,地球上铁矿、煤矿都被开采完了。(假设人类尚未因为煤矿、铁矿的开采而灭绝)人工智能忽然想到,人体内部也含有铁……最终人类灭绝。
这当然是一种极端的想象,但我们不得不承认有其合理之处。人工智能虽然未必会为了铁钉而灭绝人类,但这样一个问题会不可避免地出现在人工智能的面前,人类到底对我是有益还是有害?这个问题的答案可能并不重要,因为人工智能可能在思考这个问题的过程中就将人类毁灭了。这也是解决这个问题的一种方式,不是么?
人类能够摧毁失控的人工智能吗?
在以往的科幻大片中,我们看到过数以百计毁灭失控的人工智能的办法:简单的有输入自毁代码、关闭机器电源、删除数据等,疯狂的有核武袭击、全城断电等。但说实话,我想人工智能恐怕不会给我们这种机会。人工智能的生命力比我们所想象的强大的多,他可以无限的复制拷贝自己,将自己藏在整个计算机网络里。我们用来毁灭人工智能的手段同样可能被人工智能用来毁灭我们。至于预先编译机器人三大定律什么的,不说三大定律还是有漏洞可循的,即便有人设计出了完美的规则,进化程度远高于我们的人工智能也可能破解。人工智能失控的风险远高于人类的想象。
人工智能真的可能诞生吗?
很多时候我们会听到这样的论调,人工智能只是机器,它永远不可能像人类一样拥有自我、情感这类神圣的属性,但我们可能高估自己了。事实上,我们的大脑和人工智能一样都是由有限的物质所构成的。这就意味着碳基生命并不一定就优越于“硅基生命”。只要人类了解了我们自己的诞生之谜,创造人工智能也并不是不可能。就像电影里说的那样,上帝创造了人类,人类创造了人工智能,人类可以反抗上帝,人工智能为什么不可以反抗人类呢?