AlphaGo击败李世石的成就让业界对人工智能刮目相看,大家也对deep learning(深度学习)技术既好奇又疑惑,兴奋的同时也面临着研究中的各种困难。在人工智能与机器人峰会上,AlphaGo背后的团队DeepMind成员之一、牛津大学计算机系主任、Oxford-DeepMind Partnership负责人,AAAI、EURAI Fellow 迈克尔伍尔德里奇Michael Wooldridge,就人工智能研究的现状和未来、成就与挑战作了报告报告分享。
Michael Wooldridge表示,目前神经网络型人工智能还存在许多限制,首先表现在它们无法理解人类社会关系。而对于神经网络型的人工智能,比如AlphaGo,我们也无法理解它是如何思考的。但是,人工智能要活得人类的认同,它必须有这种被理解的透明度。不过,
不过,有意识的机器会出现的,但在它出现之前,世界一定会有很多各种关于机器意识的迹象先产生,我们不会一蹴而就。
比如说深度学习和机器视觉,我们如何把所有这些技术能够结合在一起去实现人工智能?当中有哪些成功的机会?这些技巧如何帮助我们实现长期的人工智能的目标?
对于弱人工智能和强人工智能,这是一个很重要的区分:强AI是通用型的,是属于我们在好莱坞大片中看到的——比如说天空漫游2001的机器人,这些机器人是有自我意识的,是自主的,它根本就是一个人一样具有各种的功能。
但是,这个是一个遥远的梦想,走到这一步还有很长的路才能实现,同时这也不是我们现在人工智能研究的方向,目前来说大部分的研究都是集中在我们叫弱AI。
弱AI只不过它的目标没有放在这么高和远,弱AI让机器和电脑做一些现在只有人脑或者是动物大脑做的事情,所以说弱AI是专注于具体的任务上——我当然知道弱不等于它就没有用,弱也不是就那么容易做,只是说针对性不同,所以弱AI主要是针对于非常具体的任务。
电脑实际上设计的本意是做什么。电脑或者说计算机,如果不编程的话,其实电脑就是按照一些精密的指令来运算的机器,它可以按照你的指令去执行,执行的非常快,它一秒可以做上千万、上亿的数据。不过,电脑做的一切都是必须要分解到低阶简单而且是非常精确的指令。所以,如果超越这些的话电脑就无能为力了,但是,人工智能上必须要归纳到这个指令上,那么,目前来说计算机能做那些,不能做哪些呢?
电脑很容易做的是算术,比如说解决一些任务,人工智能基本上都能做,往下就比较难了。电脑可以做算术,做得又快又准,因为很容易把算术的算式表述成这种低接的指令,所以算术非常的简单,但是再难一点,比如说解决复杂的问题——开车,这个最近也已经攻克了,但是基本上是解题的一种任务,每个任务都是要把这个任务分解成简单的指令让计算机执行。
再往下就是有意识的机器,为什么这这么难呢?比如说复杂推理,比如说玩游戏,玩一盘棋盘游戏要做复杂的推理,处理定义不清的问题——计算机要按照非常精准的指令执行,它执行得快但是你这个指令要清楚;另外还和感知有关,感知就是要理解我们周边的物理世界。
但是这个感知对计算机来说是很难的,而且感知对于自我驾驶的汽车来说是最难的一块。比如说造车目前来说比较简单,只要你知道驾驶的规则那就很容易,但是问题就是你开车的过程中怎么感知周边的环境?另外就是判断,判断是没有精准的规则的,很多时候要去看直觉、猜想,这对电脑来说是很困难的。
我们说强AI是一种有自我意识的物体,我觉得强AI应该短期内不会实现,而且我也不认为会出现AlphaGo这样的事件就能够引导到强AI。换句话说,机器它能够下棋,它能够识别人脸,做很多的任务,它做很多很多东西都好加在一起也不等于它就内有意识。
什么叫意识?我们也没有办法鉴别出一种有意识的机器。所以这种有意识的机器这不会一夜之间出现,但未来会出现。人也不会魔术师,有意识的机器出现之前前面会出现很多有意识的迹象,通过这种迹象来推出这种意识。比如说我们今天来开这个会,这就需要一种意识,我觉得这种突破都非常的重要,而且我觉得这个对社会有变革作用,最终这种技术的进步使得人类更健康,使得人类更有能力去做更多高效的活动,政府和商业更有效率,人工智能会给我们带来更大的好处。
现在的人工智能有两种方法:一个是不时髦的,一个是很时髦的——神经网络型人工智能和符号主义型人工智能。
未来的人工智能必须要把两种融合在一起,神经我讲的就是一些神经架构,人工智能的这种架构是被人脑的神经系统所启发,另外一种就是符号法,符号法不是说复制一个大脑的结构,反而我们是把人脑的推理能力用符合表示出来。
神经网络的AI其实是取决于人脑微结构的灵感,我们去看一下人脑的构造,基本上就是把一个想法输入到神经网络,进入到隐含的神经层单元。它如果获得了某一个配置之后,可以从中进行选择,而且在选择过程中对每一个输入有不同的权重,按照这个权重来进行计算。这个输入是代表了我们周边的环境,输出就反应了我们的行为的选择。
这是一个非常古老的想法了,早至1940年代就已经提出来,50年代就已经有这方面的人工智能的研究,但是在1970年代有点销声匿迹,1980年代又有一个新的突破。这是一个非常长的过程,在过去十年,这方面突发性地有大量的研究。因为是有真真正正的技术上的突破,这种神经网络需要三个元素:
第一个需要有这种算法的突破。
2004年在多伦多大学和世界上的一些学者提出一些基本上的一些根本性的新技术来怎么样把这个神经网络进行组织,但是最重要的他们还可以建造这个神经网络之后还需要大量大量的培训数据。
第二是训练数据。
过去说是大数据的十年,数据是我们现在所掌握的了,比如说我们有社交媒体,你拍了自拍,写了名字,等于是社交网络获取了你的信息,这些信息客观帮助我们神经网络进行训练,从而辨别人脸。
第三点需要有运算的能力才能够训练这种神经网络。
所以这正是在过去十年当中真正发展其他的,我认为正因为这三个因素导致我们最近深度学习和神经网络的重大的成功了突破。
给大家看一个小短片,它是DeepMin——这个是之前的程序,这个程序就是打电玩。它们在100个训练当中,刚开始玩得不怎么行,它也不知道自己在干什么,就做一些随机的行动。但是慢慢来通过训练之后,它玩得越来越好了。训练400次之后,基本上就像一个人类的选手一样。
这个游戏的开发者之前并没有预测到这样的行为,这个完全是学习到的行为。这个程序学到了如何玩这个游戏?它发现最好的打这个游戏的方式就是刚才这么做。我们看到这个最重要的就是这个程序一开始并不知道它要做什么,它不知道自己要怎么游这个游戏,它看到了我们人眼看到的东西,然后它开始去测试去实验,玩不同的方式,学习到了要拿到更多的分数。
比如下棋,一个走法就需要有200个不同的可能,那如果你说要去走两步,就要看4万个不同的可能性,如果是10个走法的话你需要看1乘以10的23次方的可能性。而一计算机程序如果要看10亿个步法的话,可能是需要30亿年的时间去评估所有的可能性,所以现在因特尔的最快的处理能力也没有办法去帮助你克服这样的问题,你需要有其他的技巧的,怎么做呢?蒙特卡洛搜索树。
利用蒙特卡洛搜索树,AlphaGo确实是我们人工智能一大突破,但是尽管它是一个巨大的成功,但是它并没有让我们能够去实现通用的人工智能,是什么意思呢?
回到我们这种有意识和下意识的举动,这个并不是在阿尔法狗的经验当中,我们并不知道怎么实现通用的AI,它不能解释他用的策略,就算它在玩这个围棋他也不能跟你去解释这个技巧,所以我们不能在阿尔法狗这个过程中提取它用了哪些策略,像阿尔法狗这个系统它不能做什么呢?
像这样的一个对话,你在电视节目或者是电影里面就能看到,他说我要离开,他回答说ta是谁。你要让它来解释发生了什么,我们可能会说安要跟他分手,然后Bob认为有第三者了,这个是从人当中能够得出这个结论,但是你是如何推出来这个解释的,你必须要知道人类关系其中的一些理论,你也必须要知道人列之间关系的这种运行机制,而且你需要有相关的背景知识去得到推理的,但人工智能我们很难去得出这样的一种解释,不能够用这样的简单的神经网络就能够去推出的,这确实是我们在计算机当中缺乏这种对人类和人类关系的这种知识。
这是另外的句子,这是两句英文句子,第一个句子是这个委员会拒绝了这个团体进行游行,因为他们是支持暴力了,对这个句子你会问他们指的是谁,我们会知道这个他们是指想要进行的团体,你怎么得出这个解释,因为委员会一般来说不会支持暴力的,所以你要去得出这个解释的话你要用到对人类组织委员会的知识,第二个例子就是委员会拒绝给团体发游行的许可,因为他们害怕有暴力,所以第一个句子他们就是指的团体,而第二个他们就是指的委员会,所以我们要了解这两个句子你必须要有知识,而且对人类社会有知识。
另外一个例子是机器翻译。你可能看出来是原文的翻译,但是它却不能够充分的了解原文的翻译,而且不能达到信达雅,也是不通顺的。
另外一个是梵高画作。你怎么样来解释这幅图的意境呢?艺术学生可以说它表示了什么样的意境,如果你放到微软的最好的图形识别的软件,它们怎么样来解读,它们说看不懂,但是好像是水里面有两个动物在游。
不能理解人类的社会关系,是机器的缺失。
要让机器理解人类社会关系的话,我想再谈谈另外一个AI的研究领域——在今天不算时髦,今天大家都在讲深度学习神经学习,这种叫符号AI。
我们人类都是有语法的推理动物,比如我太太,我想她开心,红酒可以让她开心,所以我给她买红酒,这个是非常明确的推理过程。但如果把它变成一种符号主义AI的话,我们就让机器用同样的方式去推理,让机器推理同样的结论。
符号主义的人工智能有很多明显的好处:
第一个好处是其透明性。AlphoaGo下得好,但它也没有办法解释它下得好。但在符号主义这里,我们可以清楚地解释机器为什么这么做。这种透明性确实是架构上的优势,是符号主义AI的好处
第二是这种知识水平其实跟我们人类的语言是非常的接近。它也是用一种非常明确的推理法,如果AlphoaGo没有办法解释它如何下棋的话,它就要通过这种语言的能力,用句子来表述它的想法。
当然符号主义的AI为什么不流行,它是有缺点的。
第一个是转换能力。比如说在一个复杂的现实当中,怎么把复杂变化简单的符号,这个描述用一个简单的语句来表达是非常难的。
第二个问题你要把这个过程推理出来,把这个推理的过程表述出来,这个目前也是极为困难的。
AI的下一个挑战是把不同层面联系在一起
我想AI的下一个挑战就是把不同的层面联系在一起。首先我们有非常精密的程序,比如说AlphoaGo这样的程序已经很有成就了,它可以做很多复杂的事情,但是在某种意义上它是一个黑盒子,它没有办法告诉你它是如何赢的,所以我们需要一种知识层面能够提升到神经元网络以上,把它归纳成一种语言和一种理解。
我们可以(借助符合主义)使用和交流的语言,AlphoaGo没有办法解释自己,也没有办法解释它为什么这么做,而且它也不能自省,所以我觉得这种解释的能力是极为重要的。比如说,DeepMind主要是在医疗上展开研究,就必须要解释为什么这个病人要吃这个药,必须要有解释的能力,所以在运用当中是一个关键点。
我要强调:最近的成功是非常狭窄的,而且只是在特定领域出现的成功。
我们短期内不会出现奇点。
所谓的奇点就是到这个点这个机器突破了它的水平。我们想想人工智能的经济:机器现在开始取代人了,那么如果事情让机器做,人该做什么呢?特别是机器接管人的层次越来越高,那么就会导致失业和不公平的问题。
还有隐私,比如说人脸识别,这也会有个人私隐的问题,在未来20年社会都必须面临这个挑战。
最后还有自动武器的问题,在战争当中人工智能被用在武器上会带来什么,不是军人,是机器军人,我们在这方面必须要思考清楚。
最后我想讲一下如果大家对于机器掌管世界心存担心的话,我请大家看一个短片,这个是美国的短片,美金先进研究所他们有一个机器人的大赛,这个机器连开门都开不了,所以如果某一天机器人掌管世界的话,你就关上门,门都不用锁,关上门它都进不来。
Michael Wooldridge:我觉得这是一个很好的问题,这个也是一个很关键的问题,人工智能要获得人类社会的认同,它必须要有透明度,它能够解释我为什么做什么,我为什么要这么做,所以从很多的挑战当中,计算机很难获得人的接受,但是要接受必须要有逻辑上的透明度,像这种符号型的AI是很容易清楚的解释的,但是神经型的AI没有人知道你这个行为是基于哪种的逻辑,这个是很大的挑战,我们一定要克服这个挑战,这样的话人工智能的技术才能知道认同。
Michael Wooldridge:下一个AI的到应用,特别是在工业应用这一块,下一个大应用我觉得应该是在医疗领域。为什么我认为会是在医疗领域呢?因为在英国、美国,我相信在中国也是一样,现在非常受欢迎的就像这种手环,它能够去监控你的心率,你的血糖的水平,还有你走了多少步,像苹果手表也是一样的这种可穿戴式的设备,其实现在在不断的监测你的身体的情况。而所有这些信息会给到AI,这样的话就能够去实现一些健康的应用。
我不知道你们的情况,当我生病的时候才去看医生,现在这个应用就是让医生随时跟你在一起,每天24小时帮你监测,它知道你睡了多少,吃了多少,知道你血糖的水平,他通过皮肤知道你运动的情况等等,所以通过智能手机能够建议你什么时候你要健身了,什么时候吃太多或者是喝太多酒了。在英国,他们说他们最大的应用就是在医疗,他们现在已经有这样的一些记录,就是由英国的国家医疗系统,他们有这个病例,包括所有全英国人的病例的数据,用药的记录,而我们今天早上所讲的AI其实是能够运用到医疗的领域,这样能够确实为我们整个医疗行业带来新的更多的发现,所以我觉得下一个风口应该就是在医疗。