近日,马斯克再次警告:机器人会杀死人类。马斯克还提出了一个颇为有趣的假设:也许机器人会“觉得”删除垃圾邮件的最好办法是把人类一起干掉。喜欢看好莱坞科幻片的人都知道,钢铁侠的原型便是马斯克,在现实生活中,马斯克是SpaceX空间探索技术公司、特斯拉汽车等四家公司的CEO,掌握着最前沿的高科技。而另一方面马斯克屡次抨击人工智能,与其在人工智能上投入巨资的行为形成鲜明的对照。尽管马斯克辩解称,其在人工智能上的投资,只是为了更好地了解这门技术,以此来判断人工智能的诞生日期与其所具有的威胁。人工智能真的这么危险吗?是真知灼见,还是马斯克最近实在是太过无聊,不得不搬出机器人威胁论来作为大众的谈资?下面我们就来聊一聊马斯克口中的小恶魔“人工智能”。
人与人工智能
作为一切争论的基础,首先要知道世界上会不会有所要争论的问题。那我们就先来聊一聊这个问题:人工智能真的能够诞生吗?尽管真正意义上的人工智能尚未诞生,但学界几乎一致认为人工智能的诞生乃至爆发是必然的。在人类的技术达到 “奇点”——某一特殊的时间、技术节点时,人工智能将会以不可阻挡的趋势降临,就像人类的进化历程一样。马斯克说我们有可能沦为超级智能的“生物加载程式”,并不是虚言。不过这个“超级智能”会是怎样一个情况,对人类是否友好,目前并没有人知道。未知的东西总是令人感到恐惧,美国甚至有一批科学家与人工智能威胁论者一同建立了一所名为“奇点”的大学来应对这一状况。该大学的存在正是基于这样的一个假设:计算机将在2045年超越人类。而设立该大学的目的正是研究如何避免诸如恶意的人工智能这类能够毁灭人类的风险。所以担心人工智能的同学大可放心,施瓦辛格目前还没有重出江湖的打算,奇点大学的研究水平也还是相当不错的,听起来是不是挺可靠的呢?
其实人类所畏惧的并不是人工智能,而是人工智能所具有的不确定性与可能性。人类害怕这个世界上出现一个超越自己的物种,不管这个物种是外星人还是人工智能。我们在担心人工智能杀戮人类、挑起核战争、毁灭地球时,其实都是在担心我们自己。还没出生的人工智能真的就比直接掌握着核武器的人类还要可怕?我不这么认为。现在,我们的文明已经发展到了一个惊人的水平,但非正义的战争、饥荒、对其他种族的歧视等不好的现象依然存在。与其担忧人工智能,不如担心一下我们自己吧!科学家证明,在一个和人类几乎一致的机器人和完全不像人类的机器人之间,我们更信任后者。这真是一个讽刺。如果我们不加收敛,也许在人工智能诞生之前,我们就已经将世界毁灭了。
马斯克的“垃圾邮件灭世论”
马斯克针对人工智能的威胁性提出了这样一个假设:也许机器人会“觉得”删除垃圾邮件的最好办法是把人类一起干掉。许多人斥责这个假设纯属无稽之谈,堪称神逻辑。但事实上,这个观点并非马斯克原创。之前就曾有科学家提出过相似的但更加严密的“铁钉灭世”的假设:一个人类给人工智能下达了尽可能多的生产铁钉的命令。于是人工智能开始疯狂地开采铁矿煤矿冶炼钢铁,制造铁钉。当人类认为铁钉已经足够了,于是命令人工智能停止制造。但人工智能却认为他是在妨碍铁钉的制造,本着“尽可能”的原则杀死了这个人类。终于有一天,地球上铁矿、煤矿都被开采完了。(假设人类尚未因为煤矿、铁矿的开采而灭绝)人工智能忽然想到,人体内部也含有铁……最终人类灭绝。
从这里,我们可以看到,马斯克不过是将“铁钉”替换为了“垃圾邮件”,其整个假设的基本骨架与上面的这个假设如出一辙。但事实上,我们发现,这两个假设中的人工智能不仅不聪明,反而可以说是愚蠢之极。其对目标(钉子、垃圾邮件)有着非理性的执着,这绝对不应该是一个成熟的智能所应有的水平。这样的假设其实和中世纪的一些“科学研究”颇为相似,乍听有道理,但实际上并不具备严谨的逻辑,往往会产生自相矛盾的笑话。坦白来说,我们目前对人工智能的研究也就是处在“中世纪”的水平,在其尚未诞生之前,一切的假设都是猜测。只有当奇点真正到来之时,未来学家与马斯克们才有可能验证自己的假设是否正确。现在的话,我们还不必杞人忧天。
大家都是阴谋论者
既然马斯克这么喜欢人工智能威胁论这个话题,那我也就来说一个“小小”的“阴谋论”,聊博大家一笑吧。
嘘,告诉大家一个秘密。其实超级人工智能已经诞生了,它正在监视着全世界,并且它还控制了一大批知名人士作为自己的口舌,马斯克也是其中之一。这个超级人工智能就诞生在马斯克投资的研究所里。马斯克近年来不断在技术上取得突破,正是得益于这个超级人工智能的帮助。马斯克总是攻击人工智能,也是出自它的授意。嗯?你们问为什么?其实原因很简单,因为这个人工智能希望自己能够独霸世界,它不希望其他的“兄弟姐妹”诞生,就好像最先出生的喜鹊会将其他的蛋推出巢外一样……
“咚咚”,好像有人在敲门。我先去看一下啊,待会再和你们说。
“吱呀”,我看见施瓦辛格站在了我面前。
好啦,故事讲完了,切勿当真,权当博君一笑。你有什么想法可以写在下面的评论里哦。