Yann LeCun是Facebook人工智能研究中心主管,也是纽约大学数字科学中心创始负责人。他发表过180多篇学术论文,其开发的字符识别技术可以验证支票,也在银行业被广泛应用。此外,他也是深度学习领域里最卓越的开发者之一。
近日,Yann LeCun接受了纽约时报采访,他表示,从长远来看,先进的计算机技术将会创造出数字化伙伴,在人们日常生活中陪伴在我们左右。
Q. 人工智能的重要性是什么?
A. 人工智能会让数字世界生成的各种信息变得更有意义。与人工智能或是数字世界里的许多交互会带来一种所谓的“数字伙伴”,它会给人们的日常工作、生活提供帮助。
Q. 对Facebook来说这意味着什么?
A. Facebook是一家旨在将人们联系在一起的公司,如果Facebook可以获得各种类型的海量数据,肯定能帮助他们实现自己的愿景。根据人们在Facebook上发帖的内容,图片,以及各类新闻,我们可以在一天内展现2000个事件。但是人们的时间是非常宝贵的,所以我们每天只会挑选100到150个最重要、也是对用户最有帮助的事件进行推送。
为了高效地实现上述目标,理解内容是必须的,通过给图像标签,面部识别,以及文本分类,我们做到了。此外,我们还必须知道在不同的状况下,用户有什么兴趣,想要做什么,以及他们的朋友圈都有谁。
Q. 未来看上去会是什么样?
A. 前面提到的这些功能不算是Facebook未来的产品,而是一种思维方式,也就是说,如果未来人们生活中出现了一个智能数字伙伴,那么我们需要以一种全新的思维方式来思考事物了。这种方式会影响你与好友之间的交互,扩展你的想法。未来,人工智能应该是可以单点控制的,并且能够理解、并尊重用户的隐私信息。
随着时间的过去,这种类型的人工智能会日益增多。在某种程度上,Facebook News Feed中已经或多或少有了这种人工智能的影子,当然还有苹果的Siri和微软的Cortana。不过这些产品与用户的交互方式还是比较肤浅的,基本上算是一种照本宣科的方式。
Q. 深度学习,这种机器自主理解事物的能力,是如何运作的?
A. 深度学习可以支持较为复杂的交互。当遇到情况不同的事情时,机器需要回到问题的不同层级,理解问题中的每个步骤,然后逐一解决。这好比是你在复盘下棋,当你走错了一步之后,可能需要后退好几步,通过“纠错”来发现到底是哪一步走错了。当然与你从自行车上摔下来也很相似,因为你至少得明白自己是什么时候失去平衡的。深度学习就是做这些事儿的,在深度学习中,它的追究(Credit Assignment)可能有数十,甚至数百层。
Q. 听你这么说好像很简单。
A. 我们用所谓的“向量”来表达对象,向量就是很长的数字串。“猫”的向量和“狗”的向量很相似,所以它们两者之间是有紧密关联的。而对于象征性的符号对象来说,应该会有更进一步的区分,机器学习会通过在对象之间寻找关联,继而判断出它们的含义。
Q. 你是如何创建一个具有好向量的系统的,换句话说,机器学习能够根据背景环境表达不同的语义吗?比如,你是如何让机器学习语言规则的?
A. Tomas Mikolov在加盟Facebook之前在Google也从事相关工作,他做了大量基于向量的语言关系工作,我们称之为“词语到向量”关系。当你需要表达时,你需要使用一连串的词语,而且这些词语是有顺序的,从逻辑上来说,会有一个词语开头,一个词语结尾。举个例子,如果你说了一句话,其中有11个词语,提供开头和结尾的单词,你可以要求机器学习预测出中间的词语。要实现这一目标,系统需要学习每个独立的词语在句子中所表达的含义。
我们还在研究语言的向量表达,这样就能让你不太费力地理解不同语言了。
Q. 你为什么最终选择了Facebook?
A. 解决人工智能问题,需要科技行业、学术界、以及政府共同努力。就目前而言,全世界有实力涉足人工智能领域的公司还是屈指可数的。
苹果太神秘了,他们不愿与人分享技术,那里不适合研究人工智能。Google部分保密,他们有工程师进行混合研究,但也不是那么开放。Google X就是一个秘密研究部门,别期望他们会有什么突破。不过,Google在英国的人工智能项目Deep Mind相对开放的多,所以我对这个项目还是比较乐观的。
在Facebook,开放可以说已经融入到他们的基因之中了。许多Facebook的软件和硬件都是开放的。在他们眼里,自己就是一家开放的公司,因为提供社交网络服务的公司,开放是一个必不可少的企业文化。Facebook开源了很多代码,为科技界贡献了很多价值。
至于如何实现商业化人工智能,恕我不能透露太多。这与我们的研究关系不大,毕竟我们还是要保持些竞争优势的。
Q. 你们的长期目标是什么?
A. 给人工智能赋予动机和情感。
Q. 你不能在软件中渲染情感吧?
A. 好吧,让我们来谈谈情感。当人们开始了解这个世界,他们会有很多情感表达。人类自身就是一种“预知机器”,我们会按照自己喜欢的方式,以及自己喜欢的状态去改变这个世界。什么是情感?其实就是判断哪些是人类喜欢的事情,哪些是人类讨厌的事情。而这些事情其实都是可以被赋值的。就像现在,人们吃饭、繁衍、避免痛苦、赚钱、失业,所有这一切其实都是有原因的。比如你会想,如果我不去上学,以后就没法找工作,日子就会过得很苦,所以你得去学校。人工智能就是要做出类似这样的预测,当然,很多时候我们也会感到很矛盾,但是对于利用机器代码来渲染情感,其实是做得到的。
Q. 要证明你所说的这一切,有哪些困难?
A. 实际上,我们仍然不知道如何去实现一些人工智能概念。最大的困难之一,就是我们不知道如何实现“无监督学习”,也就是机器自主学习。
监督学习,举个例子,就是你需要去训练计算机去识别狗或猫咪图片。如果要巩固学习效果,方法就是不要告诉机器哪些图片是正确的。事实上,你只需给机器的表现打分就可以了。通过识别在哪里出现错误,机器可以逐渐理解学习规则。
无监督学习,则是人类的能力,换句话说,人们会通过对事物产生兴趣来了解整个世界是如何运作的。就算你把一个玩具藏在盒子后面,孩子们也会知道玩具不是消失了,它仍存在于这个世界里面。人类和动物具有这种能力。相对于机器而言,绝大多数机器的学习都是监督学习,我们目前还没有一个足够好的模型来让机器实现“无监督自主学习”。
相对于前文提到的“词语到向量”关系,“向量到词语”可能算是一种无监督自主学习,然而究竟该如何构建无监督学习的人工智能,目前我们仍缺乏基本原理支持。
via nytimes