强人工智能(强AI)是什么?简单来说,就是一个类似于人类大脑的智能,它可以自主完成对世界的理解、对知识的学习,而不需要人类为它们的感知和实践预先建立好模型(就像现在的深度神经网络和千千万万比它更弱的程序那样)。强人工智能是人工智能的终极形态,相信它能给人类带来福祉和带来灾难的人都为数不少,但大家普遍都同意在超强计算能力的加持下,强人工智能的进步速度会远远快于人类,而且会对人类社会产生深远的影响。
但强人工智能到底还有多久才会出现,对这个问题的观点就是千奇百怪了,从5年到100年、甚至认为永远不会出现的人也有。我们选取了一些Qurora上关于这个问题比较有价值的讨论,供大家参考。
计算设备(包括计算机和其他)的计算能力在以指数级增长
Paul King是一名计算神经系统科学家和数据科学家,在医学日报、福布斯等多家杂志上刊登过文章。他表示目前强人工智能面临的最大障碍恰恰是自我建模的能力(这种能力被称为结构学习)。以下是他的答案:
强AI看起来确实是可行的,但是还需要一段时间。
现阶段主要的技术壁垒在于人们对于“结构学习”的认识还不够深刻,尤其是当它与对世界建模和引导行动相关的时候。
机器学习在“参数学习”上已经做得很好了。当一个问题被人类设计师建模后,机器学习可以很准确的自我调整其中的参数。但是如何一个模型到底是如何被建立起来的呢?这就是“结构学习”:让机器自己推测出模型的最优结构,并且在实测数据与模型不符的时候对模型进行更正。
比如,组成物理环境的模型中最基本的单元应该是什么呢?常见的有人、树、汽车和凳子这样的物体。但是AI怎么在没有人给它们预先编程的情况下就知道这些东西的含义呢?这是个最基本的例子。而人的大脑就天生能给这些物体的存在赋予准确的理解和定义。结构学习也可以应用在行为指导上,因为与环境的互动,作为人们与世界交流和“思考”的结果,也必须建立在可以变形、融合和切分的可延伸的元素的基础上。
一个很值得思考的问题是:我们到底能用现有的电脑算法来解决这个问题,还是必须得对我们的大脑进行彻底的逆向工程研究,然后根据我们得到的东西重新设计一套计算架构和模式才能做到这一点。
现有的深度神经网络架构
Robert Stone是一位在认知科学和计算机系统方面已经拥有超过35年经验的研究者。他并没有从技术细节上来解释强人工智能的问题,但给出了一个很有说服力的推论:其实我们的大脑在某种程度上来说就是一个计算能力没有那么强的强AI,所以由于我们的大脑已经存在,所以在机器中制造出类似东西的可行性是一定存在的。他同时认为,其实人类现在对强AI的需求并没有那么迫切,人类和弱AI的协同已经能做的非常出色了。
强AI是能够做到的,但是非常非常难,智能的产生是一个很复杂的过程,包含了很多细小的事件,其中的一些是非常复杂而且在工程学上难以实现的。建造这样的一个东西不是一件简单的事。
但是强AI事实上已经在自然中演化出来了,我们最终肯定也是能在机器上实现它的。需要注意的是人类并不是严格意义上的思维机器——我们会犯错,而且经常犯错——但是在目前这些尚不完美的机器的帮助下,我们就能做得很好了。这意味着如果我们只是想要把什么事做好、让什么东西充分发挥它的作用的话,我们完全不需要去制造一台完美的AI。我们只需要让这个系统进行各种尝试,让它能够自我提升,并且在犯下错误或者做的不够好的时候能自己意识到这一点。做到这一点在理论上就变得可行多了,只是在实现上仍要费一番功夫而已。我还注意到人类正在面临一个不确定、不精确、没有任何事情能被准确预言的宇宙(量子力学认为,未被观察者观察到的物体状态永远不会确定,而是以各种可能的叠加态而存在着),但是从某种程度上来说,我们就是强AI。所以要我说的话,强AI是有可能实现的,如果不能的话,人类就不会是现在这个样子了。我们估计还在树上荡来荡去。
深度神经网络的神经元模型
但也有相对冷静,或者说悲观的理论:一位从事了十余年软件开发的软件工程师Orange Monkeybat认为强AI即使能够实现,也离我们还很远,因为在人们对一件事物并不了解的时候总是会低估实现它的难度。
我只是一个普通的工程师,进行了差不多18年的软件开发,但是我想在我的工作中我发现的一些规律其实可以完美应用在你的问题上。首先是一些关于技术和技术开发人员的公理:
(1)当一个问题涉及到大家知之甚少的技术挑战的时候,人们对能解决它的时间的估计往往会比实际需要的时间少。而且,做出这个估计花费的时间越久,往往这个估计的数值也就错得越离谱。(在几个典型的例子里,人们在难题解决时间的估计上甚至少了几个数量级)
(2)工程师、程序员、科学家们和其他的技术研究者们聚集在一起的时候永远会对自己团队的能力过于乐观。(原因多种多样,但总的来说大家都会认为自己是一个非常有智慧的——这个判断常常会偏高——团队)
(3)因为(2)中描述的原因,很多技术工作者会把一些难题看成是很简单的事,直到他们需要着手解决它,甚至直到他们已经在解决它的努力上付出了很多之后,才会意识到自己的问题。
由于这些公理的存在和大多数人,尤其是那些经常会陷入各种各样的“确认误差”的聪明人的表现,我觉得暂时不应该相信那些铺天盖地的关于AI的宣传。
强AI是可能的。我们就在思考,并且有自我的意识,所以我相信我们是能创造出来这种东西的。但是我也相信P/NP问题(克雷数学研究所七个千禧年大奖难题之一,至今未被解决)是可以被解决的。我的意思是,不管是P=NP还是P!=NP,没理由我们永远没法找到问题的答案,我们只是暂时还没找到罢了。
我的假设是跟解决强AI问题相比,我们解决P/NP问题的时间会早得多,为什么我会这么说呢?因为至少在P/NP问题中我们还能清楚的知道我们知道和不知道的条件有哪些,而我们对AI的认识则要混沌得多。除非我们有一天对AI的认识也像今天对P/NP问题的认识那样清晰了,不然只会证明我们在这个问题上根本没有进步多少。
我们现在实际上还并不是很了解“学习”的含义。我们知道深度神经网络在一定程度上具备了“学习”的能力,但我们其实对体现在哺乳动物上的学习能力几乎一无所知。而就是因为对于强AI我们现在连“我们不知道什么”都不知道,很多人才会认为我们已经同强AI相当接近了。但是我们如果弄清楚了有多少事是我们以为知道其实根本不了解的,我们的估计就会靠谱很多。比如P/NP问题,我们研究的越多,越觉得我们离解决这个问题遥遥无期。同样的事也有可能在强AI身上上演。
别误会了,我是强人工智能的坚定支持者。但当你们正视我们真正了解的知识的时候你就会明白,我们离强人工智能(或者说奇点的到来)仍然很远。我觉得,就算考虑到技术指数级的增长。
人类的大脑是自然界最神奇的成果之一了。或许我们真的需要等到能对大脑进行彻底的逆向工程的那天才会拥有建造强AI的条件了,至少像工程师Monkeybat说的那样,我们得先知道我们不知道什么东西。