资讯 脑洞
此为临时链接,仅用于文章预览,将在时失效

无论强人工智能能否出现,人类的未来注定灰暗

作者:霍炬
2015/03/06 12:49

无论强人工智能能否出现,人类的未来注定灰暗

本文首发于公众号“歪理邪说”(wxieshuo)。

最近,无论中文还是英文,关于人工智能的讨论都突然变多,对于人工智能到底会不会危害人类也成了一个热点话题。很多讨论集中在所谓强人工智能出现之后的可能性,在这些来自未来学家的讨论中,远超人类智能的“强人工智能”会在我们有生之年出现,到那时候人类的命运会变成什么样。我觉得人们想的太远了。在强人工智能出现之前,人类已经命运已经注定灰暗了。

今天这些讨论,如果能够穿越时间,拿回给80年代的我们同龄人看,他们反而一点也不陌生,更不会被吓到。尽管那是一个没有智能手机,没有无线网络,连商用互联网尚未成型的年代。但那个时代的人,差不多认为到2000年,一切都能实现,甚至强人工智能也会实现。

回望80年代,即使以今天的标准看,也是一个科技爆发年代,从60年代开始的各种科学上的概念和想法,到80年代基本有了可用实现。不仅今天所用的人工智能基础理论和算法在那个年代有了突破,甚至今天大家在讨论的电动汽车,燃料电池………都是在那个年代就有了商用产品,今天我们说的所谓强人工智能这个词,也是60、70年代的产物。摩尔定律这个词,同样是60年代出现,80年代成熟。完全不算巧合,科幻小说在80年代也相当兴盛,并且出现了以网络虚拟空间和未来为主要题材的赛博朋克流派。我一直觉得,今天这些未来学家所讲的东西,没有一样能超过那些科幻小说的深度,尤其是赛博朋克流派科幻小说,他们所预言的近未来,几乎已经是接近实现了。

1984年,《神经漫游者》出版,这是一部科幻小说历史中的里程碑式作品,它开创了以网络虚拟空间为背景的赛博朋克科幻流派,甚至定下了这个流派科幻小说的基础元素,包括网络空间和巨型垄断企业控制世界,当然,其中也少不了最终控制一切的人工智能。

赛博朋克流派科幻小说中的未来大多是灰暗的,这种灰暗不是程序产生更高智能彻底奴役人类造成的,而是技术和人类本身共同完成,这也正是我的看法。

人们平时往往意识不到,如今我们早就已经生活在程序所划定的范围中了。这并不需要所谓强人工智能才能做到,分布在不同系统里面的带有一定智能,或者毫无智能的程序,早就是人们的重要帮手。大多数情况下,人们对程序结果的信赖已经超过了对人本身。

就算是对软件技术一无所知的人,也会从一些蛛丝马迹中有直接感受。比如说,很多年之前,各种系统还没有完全联网和计算机化的时候,很多事情,只要能说服终端办事人员,他大笔一挥,问题就解决了。但到今天,终端办事人员往往会同情的看着你,告诉你我知道你说的有道理,但是我没权限改系统,所以我也没办法。很多时候,我们完全被系统所困住,只能想别的办法变通执行。这些系统往往并没有智能,它们只是强硬执行设定好的规则而已,这样的系统照样可以规范人们的生活。

稍微智能一点的例子,是银行和保险行业。他们掌握着更多的数据,也可以基于数据计算出来更多的结果。无论是申请贷款还是买保险,最终给出结果的,往往并不是一个真正的人,至少不单纯是由一个真正的人作出决策,而是经过一堆程序“智能”的计算。至于程序计算的结果到底对不对,是不是完全符合你的状况,跟你打交道的真人往往也并不知道,系统是个黑箱,它做出了决策,人们遵从它。

更智能,更常见的情况是互联网上。每一家互联网公司以近乎贪婪的态度,去收集所有自己可能触及的数据。用户点击了哪个按钮,在哪个页面停留时间更长,分享了什么,赞了什么,哪些内容被转发,哪些内容被评论,把什么东西加到购物车,付钱购买了什么…所有的一切,都被记录。新一代的互联网公司们致力于为每一个个体提供定制的产品,你看到的页面,和你的朋友可能完全不一样,甚至你看到的商品价格,和你朋友看到的也未必一样。这些都是基于你自己的行为产生的,由程序计算出来的结果,多数情况下,其中并没有人工参与。只从体验上看,这不是一件坏事,毕竟,按照用户习惯定制的内容,可以让他使用起来更舒服,节约更多时间,人们也更喜欢这样的产品。

和几十年前一样,今天人们又一次开始讨论强人工智能,并且再次认为会在我们有生之年实现,除了未来学家们四处宣讲,现实中的原因是以深度学习为代表的无监督学习技术开始显出了极好的效果。通过这种技术,计算机看起来变得很智能,可以通过反馈得出一个比较好的结果。虽然这些技术让计算机能做更多的事,但它和人类所具有的智能仍然有本质区别。

严格来说,深度学习并不是新技术,它的基础仍然是神经网络算法。还是80年代,神经网络算法已经成熟(其实50年代就出现了),那是人工智能投入的高发年代,大量科学家,研究生投入这一领域,可惜效果长期无法达到真正可用,最终只有少数几个特殊场景可以成功应用。到90年代开始,这个领域失去了大多数关注和经费。最近10年,这一门派的算法继续演变成今天的深度学习,这一次,他们成功了。深度学习领域最重要的科学家,多伦多大学的Hinton教授带领的团队,在2012年LSVRC竞赛上,获得了一次巨大的成功,他们使用深度学习的算法远远超过其他参赛者,大获全胜。

为什么一个80年代差点被放弃的方法重新回到了世界中心?因为80年代虽然可以完成理论基础,但真正到达实用所需要的数据和计算能力都不具备。这几十年,随着互联网的发展,芯片价格下降,并行计算发展,以前的困难已经不再是问题。除了数据的数量极多,更重要的是,因为智能手机和各种传感器的普及,我们可以获得的数据种类也远远多于80年代,从而可以在更多领域进行尝试。在这些技术共同作用下,新的人工智能高投入时代又重新开始了。

危险确实由此开始,但危险的来源并非人工智能算法进一步提升,而是因为我们提供出数据越多,被限制和引导的机会也就越大,以今天人工智能技术水平可以做到的程度,已经可以令人非常不舒服了。未来,可使用的计算能力会增强,同时,人们提供的数据种类还会继续增加,尤其是和人自身相关的生物特征数据,必将让人类放弃更多的自由,这种趋势已经几乎没法扭转了。

从现在已经发生的说起。一些网站会给不同用户显示不同的价格,已经不是秘密了,前几年,酒店预订公司Orbitz就实验过让苹果用户只能看到更贵一些的房间,据说效果还不错,让他们多赚了不少钱。这是基于非常简单的规则完成的,他们把用户直接分成两类,苹果用户和其他,然后引导苹果用户消费。如果智能一些,可以按照用户购买习惯,去为不同用户提供不同的推荐方案,这我们也不陌生,在电商网站只要有帐号,哪怕只在登录状态搜索几个东西,很快都会收到各种量身定做的推荐邮件。

如果运算能力足够,让用户“多花点钱”这个目标,还可以做的精细很多。比如,在用户把东西加入购物车,付款之前,能不能找到一个功能类似、价格接近但利润率更高的商品,推荐给用户?推荐之后,能不能给他一些应该放弃之前的商品,转买这个商品的理由--比如有多少比例的人认为这个更好,或者,他的好友有多少人赞过它,甚至是,最近这个东西正在特价,是历史最低价。之后,用户买或者不买,都是一次反馈,系统会收集这种反馈,下次让推荐方案变得更适合这个用户。每一次重复这个过程,都可以帮助人工智能系统提高一点点,而一个人的行为产生的数据,又可以用于影响他的好友。

这个过程还可以做的更好,比如,用户加进购物车但没有买的商品,如果降价20%会不会促进他立刻购买?如果不行的话,把价格涨回去,会不会让他觉得后悔,那么下次再降价15%,是不是立刻就买了?随着我们把更多的数据联网,分析用户行为的依据会更明显。比起过去,人们开始把越来越多的生物数据联网,心跳,血压…有了这些参数,之前的流程又可以发生一些变化,当降价20%的时候,用户的生物特征会不会改变,比如,心跳加速?如果再涨价,生物特征又会如何变化。系统能不能从这些生物数据变化中分析出哪些是兴奋,哪些是遗憾?如果涨价之后用户感觉到遗憾,下次再降价15%,很可能会促成一次购买。这已经我们训练程序,而是程序训练我们。经过这种训练之后,下一次降价20%的时候,用户可能就会立刻购买,用户的行为模式改变了,这就是人被程序训练的结果。

这是一个相对直观的例子,我们可以推测出一些理由和可以用语言表示的规则。而在实际应用中的,人工智能程序往往是一个黑箱子,它目的是让用户买利润率更高的东西。至于具体如何做,对于不同的人会有不同的方法。就算是这个黑盒子的拥有者甚至创造者,也难以穷尽所有可能,知道它到底对每一个人到底做了什么。当然,到今天为止,这些还没有完全成真,但我相信,小规模尝试应该已经在进行中。没有大规模应用,只是因为计算能力还不够强,采集数据的方法也不够多。简单说,就是因为这样做性价比还不够高,但我相信,距离它被实现那一天并不会太远。

我们越来越多的使用网络,也提供越来越多的数据给不同公司,而各种传感器芯片的普及,又让我们提供了越来越多种类的数据。很多情况下,用户甚至并不知道这些公司在收集我们的行为。一个普通用户可能很难意识到,当他打开一个网页停留不动,这也是一种反馈。也很难想像打开一个app,点哪个按钮,也往往会被记录下来。这些用户行为数据,是"喂养"人工智能程序最好的材料。这些80年代的科学家们难以获得的数据,在今天它们随处可见,用户并不觉得它们珍贵。无论是Google,还是个人拥有的小网站,当你对它有意见时,总会有人告诉你,你又没花钱,人家爱怎么做就怎么做。这当然是错的,用户付出数据这么珍贵的东西,怎么能叫免费呢?要放在几十年前,一个人行为模式和偏好,往往只有他最好朋友和家人才有可能知道,今天不仅被各种公司获知,还用来做了商业用途。现在的法律只保护那些能简单对应到真实人的信息(比如证件号码),认为那些是隐私,这些行为数据,各种公司都可以随意收集和使用它们。每个公司都会坚称自己有隐私保护策略,我们就算不考虑数据被窃,被泄漏的可能性,就单说不同公司之间的收购和合并,已经足以让分布在各处的数据逐渐被汇总起来了。

今天这仍然不是一个明显问题,虽然我们已经离不开网络,但毕竟大部分时间,我们还在现实世界中。在现实世界,一块广告牌立在路边,所有人看到的都是一样的内容,人们没办法和网络广告那样,让每个人看到不同的广告。

但人类必将进入虚拟世界,正如赛博朋克科幻小说所展示的那样。随着虚拟现实技术的发展,现实世界和虚拟世界的界限会逐渐模糊掉。去年Facebook花了大价钱收购了Oculus,这是一家沉浸式虚拟现实公司,现在它的样子还很傻,是在头上带一个大盒子,人们不太可能带着它四处行走。更早之前的Google眼镜有着更大野心,希望成为日常应用的设备。它们的体验都远远达不到实用程度。但,这个方向是一定会有实际可用产品产生。近一点,有可能是《彩虹尽头》所描述的那种视网膜投射技术加上各种穿戴式设备构成的半虚拟现实的真实世界。更不要忘记,生化技术也在一直发展,神经联网那一天早晚会到来。

到那个时代,我们产生,和被采集的数据就会更多。现实和虚拟的界限彻底消失,我们在现实中仍然会通过虚拟现实技术看到为每个人定制的内容。那时候人们就会有更多行为会按照人工智能程序所规定的方式进行,并且,还会发自内心的认为那是他独立自主的产生想法。人会完全会成为程序的终端,为程序贡献数据,按照程序引导产生行为,依赖程序生活和工作。

就算在今天,我们也已经很难说哪些是自己的观点,哪些是被影响过的观点。很多人有这种感觉,看一场辩论的正反两方文章,一会觉得这边说的对,一会觉得那边也有道理。这一点也不奇怪,人就是这么容易被影响的,你很难确信什么是你真正的想法。如果你每天看到的信息,是被程序精心计算过的,就很可能会按照程序预先设定的方式行动。为世界上每一个人设计一套适合他的模式,引导他的行为,已经不是幻想了,技术上早就可以达到,剩下的只是计算能力和成本问题。

今天的程序和人混合的模式中,人工智能程序已经有规范我们生活的能力了,尽管这些程序没有真正的智能,也更不可能具有超越人类的智力。这些程序按照人们不同的目的被创造出来,它们嗅探人类的习惯,改变和引导人类的行为,而他们的创造者--那些公司们,同样是被它们所控制,难以离开他们。而且,就算是最大公司的股东们,他们自己的生活中,同样会被别的人工智能程序所影响和引导。人类和人工智能,已经是密不可分的了。

想想前面说过的,对着系统说我无能为力的办事人员,他其实已经是程序在现实世界的延伸了。即,他完全按照程序的处理结果执行,自己没有任何其他权限,他的工作只是替程序和现实世界交互。这是因为程序暂时还没办法直接影响到现实世界。如果有一天机器人足够成熟了,他就会被机器人所替代。看看周围,我们已经有很多的工作岗位处于这个状态的。比如,快递员,他们按照程序下达的指令工作,程序会替他设计最好的路线,他们只需要顺着走即可,自己可以发挥的余地很小,如果无人机成熟了,快递员的工作也可以被取代了。人类按照人工智能的指挥采集信息和工作,变成网络和计算机的终端,在很多讨论中,这是超越人类的人工智能出现后的事,但其实现在这种人和程序共同构成的系统已经可以实现的不错了,很多工作岗位的人都是程序控制下的最终执行者。

80年代科幻小说设想了各种情况,但没想到今天人们会主动把自己的数据贡献出来。无论是潜在的用户行为,还是显式的照片、声音、好友关系、品牌好恶,甚至自己的思考和情绪,在社交网络的帮助下,人们几乎毫无保留的贡献这一切。这个时代的人们担心自己的身份证号被人知道,但是对于以上信息,压根不觉得是隐私。其实身份证号才不是隐私,只要需要,有无数的方法可以获得它,但其他信息,除了你和你的朋友们主动交出来,很难有方法直接采集到。我们很快会进入一个数据垄断的时代,掌握海量数据的公司,可以利用这些数据获得更好的盈利,提供更好的服务,进而继续获得更多数据。缺乏数据的公司,在未来可能甚至没法创造出一个可用的服务来。

这远比资本垄断可怕,因为资本可以靠融资解决,数据只能通过积累获得,垄断者的地位更难以撼动。所以,做投资的朋友,记得投资那些可以收集和产生大量数据的公司,数据垄断的时代马上就会到来。

说到数据的垄断,所有赛博朋克科幻小说,都有一个设定,即,未来企业会代替政府,成为人类社会管理者。在另一本赛博朋克经典著作《雪崩》里面,美国联邦政府甚至沦落到了散落在高速公路周围的几顶帐篷里,私人企业拥有最大的权利。但在我们所经历的这个现实世界中,并不会如此。斯诺登曝光了棱镜之后,人们突然发现,美国政府才是最大的数据拥有者,确切的说,美国国家安全局或者国土安全部才是真正的数据持有和垄断者,他们不仅有通过行政手段从各职能部门获得的数据,还从几乎所有公司手里要求更多数据,甚至不惜去偷数据,他们监视者全世界的人,连美国的传统盟国也不放过。最终我们的社会形态,很可能是政府和企业共同成为垄断者,他们和各种目的的人工智能程序一起规范每一个人的具体行为,而大多数人对此会逐渐习以为常,一无所知。法国思想家福柯所设想的全景敞视主义,会在我们有生之年实现,以一种被监视者踊跃参与并且难以察觉的形式实现。

现实世界的实际威胁,比如IS的兴起,会极大加速这种进程,每个人都可以问问自己,你是愿意交出更多隐私,让监控无处不在,从而捕获恐怖活动的前兆,还是愿意遭到恐怖袭击?恐怖主义的威胁,会让绝大多数人选择前者。

最糟糕的是,今天我们已经到了一个没法调头回去的时代,我们没办法停止使用智能手机或者社交网络,也没办法不把数据交给大公司们。如果放弃了这些,可能已经跟被关进实际的监狱差不多了。就在几年前,人们还习惯看看地图出门,今天如果拿走一个人的智能手机,把他放在一个陌生的地方,他的第一反映是无所适从。就像《神经漫游者》所描写的,在那个已经可以通过神经联网的时代,处罚一个人的方式,是毁掉他的神经,让他无法再接入网络,而不是毁灭掉肉体。或者像《彩虹尽头》所描述的那样,如果你不能使用高科技,就基本等于是一个废人。从现在所有的情况看,人类会毫无阻拦的奔向这个一切都在控制之下的灰暗未来,所有人都在程序的规划之内生活,无论是这些系统的拥有者还是使用者,所有人对程序给出结果的信任都会超过对自己的信任,人类对系统极度依赖。这一天来临的时候,很难想象人类还会有什么进步,一切都安全,稳定,毫无意外的进行。就像《黑客帝国》里面的人类电池,活在现实世界的电池。到这个时候,无论更远的将来机器能不能产生超越人类的智慧,人类已经和毁灭没什么区别了。人类自己制造了一套系统,把全体人类关进了看不见的笼子里面,这种情况实现的可能性,远远超过强人工智能实现的可能性。

想停止这一切更加不可能,就算是在现在,试图停止美国政府收集数据的行为很可能会被认为是叛国。这个时代还勉强可以出现斯诺登这种出乎意料的案例,斯诺登拥有权限,但他利用这种权限,做出了对整个系统不利的事。未来,所有人都会生活在系统划定的规范之下,并且所有数据都被监控和计算,未来的斯诺登开始收集那些文档的时候,他的异常行为就会被系统发现,立即中止。也许,人类唯一的希望就寄托在各种寻找漏洞的黑客身上了吧。

最后再说一个黑科技,加拿大的D-Wave甚至制造出了第一台可商用的量子计算机,当然,学术界一直在争论它是不是真正的量子计算机,因为它几乎只能用于计算模拟退火这一种算法。但就算这一种算法也很有用了,Google买了一台这种计算机,据说是用于图像识别。图像识别和声音识别都是模糊现实世界和虚拟世界界限的技术。今天,计算机已经可以从摄像头的视野中,比较准确的追踪一张人脸,只是限于计算能力,还不能肆无忌惮的追踪所有人,未来,一切皆有可能。

资源备注:

无论强人工智能能否出现,人类的未来注定灰暗

长按图片保存图片,分享给好友或朋友圈

无论强人工智能能否出现,人类的未来注定灰暗

扫码查看文章

正在生成分享图...

取消
相关文章