[按]本文节选自公众账号“机器之心”(almosthuman2014),英文原载IEEE《Spetrum》,作者Lee Gomes,由机器之心独家翻译出品。全文链接见此。
IEEE 《Spectrum》的Lee Gomes与LeCun(Facebook人工智能实验室主任,卷积神经网络专家)进行了一次深度谈话,本文摘选了其中和人工智能定义和应用最密切相关的几部分。
用8个单词解释“深度学习”
IEEE Spectrum:这些天我们看到了许多关于深度学习的新闻。在这些对深度学习的众多描述中,你最不喜欢哪一种?
Yann LeCun:我最不喜欢的描述是「它像大脑一样工作」,我不喜欢人们这样说的原因是,虽然深度学习从生命的生物机理中获得灵感,但它与大脑的实际工作原理差别非常非常巨大。将它与大脑进行类比给它赋予了一些神奇的光环,这种描述是危险的。这将导致天花乱坠的宣传,大家在要求一些不切实际的事情。人工智能之前经历了几次寒冬就是因为人们要求了一些人工智能无法给与的东西。
Spectrum:因此,如果你是一名关注深度学习的记者,而且像所有新闻记者所做的那样,只用八个单词去描述它,你会说什么?
LeCun:我需要考虑一下。我想将会是「学着描绘世界的机器」(machines that learn to represent the world)。可能另外一种描述是「端对端的机器学习」(end-to-end machine learning)。这种理念是:在一个能够学习的机器中,每一个组件、每一个阶段都能进行训练。
Spectrum:你的编辑可能不大喜欢这样。
LeCun:是的,公众将无法理解我所表达的意思。好吧,有另外一种方法。你可以把深度学习看作是,通过整合大量能够基于相同方式训练的模块和组件来构建拥有学习能力的机器,比如说模式识别系统等。因此,需要一个能够训练每个事物的单一原则。但这又超过了八个字。
Spectrum:有哪些事情是深度学习系统可以做,而机器学习无法做到的?
LeCun:这是个更好的问题。之前的系统,我想我们可以称之为「肤浅的学习系统」,会受他们能计算的函数的复杂度所限。因此,如果你使用一个类似于「线性分类器」的肤浅学习算法来识别图像,你将需要从图像中提取出足够多的参数特征来提供给它。但手动设计一个特征提取器非常困难,而且很耗时。
或者使用一个更加灵活的分类器,比如说「支持向量机」或者两层神经网络,直接将图片的像素提供给它们。而问题是这不会提高物体识别在任何程度上的准确性。
Spectrum:这听起来不像是一个简单易懂的解释。或许这就是为什么那些记者会尝试着把深度学习描述成……
LeCun:像我们的大脑。
Spectrum:其中有一个问题是,机器学习是一个非专业人士极其难以接近的研究领域。一些经过教育的外行能够理解一些半技术性的计算问题,比如说谷歌使用的 PageRank算法。但我敢打赌只有教授才能对线性分类器和向量机了若指掌。这是因为该领域从本质上就很复杂难懂吗?
LeCun:事实上,我认为机器学习的基础原理非常简单易懂。我曾经向高中的老师和学生解释过这一主题,并没有让其中的许多人觉得枯燥乏味。
模式识别系统就像一个黑盒子,背面装有摄像头,顶上有一个红灯和一个绿灯,前面装有一连串开关。比如说一种尝试着调节开关的学习算法,当一条狗出现在摄像头中时控制开关使红灯亮起;当一辆车出现在摄像头中时控制开关使绿灯亮起。为了训练该算法,你将一条狗放在机器面前,如果红灯亮起,什么都不做。如果光线模糊,扭动旋钮使灯变亮。如果绿灯亮起,扭动旋钮使灯光变暗;接下来换成汽车,扭动旋钮使红灯变暗或绿灯变亮。如果你进行多次尝试,并且保持每次都对旋钮进行逐渐微调,最终,机器每次都能得出正确答案。
有趣的是它能正确的区分开它从未见过的汽车和狗。窍门在于要计算出每次扭动旋钮的方向和幅度,而不是乱动一气。这包含对「梯度」的计算,旋钮的每次扭动代表着灯光的相应改变。
现在想象一下,有个盒子拥有5亿个旋钮、1000个灯泡,用1000万张图来训练它。这就是一个典型的深度学习系统。
Spectrum:我认为你用「肤浅的学习」这个词好像有些不太严谨;我不认为那些使用线性分类器的人会认为他们的工作很「肤浅」。之所以用「深度学习」这个表述难道就没有媒体宣传的因素在里面?因为这看起来好像它学到的东西很有深度,但实际上,「深度」仅仅是指这个系统的级数?
LeCun:是的,是有点儿滑稽,但这反映了真实情况:肤浅学习系统有一层或两层,而深度学习系统一般有5-20层。肤浅还是深度指的并不是学习行为本身,而是指被训练的结构。
Spectrum:炒作毫无疑问是有害的,但你为什么说这是「危险的」?
LeCun:因为这给基金会、公众、潜在客户、创业公司和投资者带来了预期,他们会因此相信我们正处在风口浪尖——我们正在建造一些像大脑一样强大的系统,但实际上我们离这个目标还差的很远。这很容易导致另一次的「寒冬周期」。
这里会出现一些「草包族科学」(cargo cult science),这是理查·费曼的表达,指描述某些事物貌似科学,但实际上不是(译者注:这出自理查·费曼1974年在加州理工学院的一场毕业典礼演说,描述某些事物貌似科学,却遗漏了「科学的品德,也就是进行科学思考时必须遵守的诚实原则」)。
Spectrum:能举几个例子吗?
LeCun:在「草包族科学」下,你往往是复制了机器的表象,却没有深入理解机器背后的原理。或者,在航空领域,你制造飞机时会完全复制鸟类的样子,它的羽毛、翅膀等等。19世纪的人们很喜欢这么做,但取得的成就非常有限。
在人工智能领域也是如此,他们尝试着对我们所知晓的神经元和神经突触的所有细节进行复制,然后在一台超级计算机上启动一套庞大的模拟神经网络,希望从中孕育出人工智能。这就是「草包族科学」的人工智能。有许多拿到大笔基金支持的严肃的研究者基本上快要相信这些了。
Spectrum:你认为IBM的True North项目(译者注:IBM的类人脑芯片,集成了 54 亿个硅晶体管、 4096 个内核、100 万个「神经元」和2.56 亿个「突触」)属于「草包族科学」吗?
LeCun:这听起来会有些刺耳。但我的确认为,IBM团队所声称的东西有点偏差并容易造成误解。从表面上看,他们的公告令人印象深刻,但实际上没有实现任何有价值的东西。在True North之前,那个团队用IBM的超级计算机来「模拟了一个老鼠级别的大脑」。但这只是一个随机的神经网络,除了消耗CPU运算周期以外没有发挥任何作用。
True North芯片的悲剧在于它本来可以很有用,如果它当初没有坚持与生物学走的太近以及没有使用「spiking integrate-and-fireneurons」模型的话。因此在我看来——我曾是一个芯片设计者——当你在开发一个芯片之前,你必须确信无疑它能做些有用的事情。如果你打造了一个卷积网络芯片——很清楚如何去做——它能立刻应用到计算设备中。IBM创造了错误的东西,我们无法用它去完成任何有用的事情。
Spectrum:还有其他例子吗?
LeCun:从根本上说,欧盟人脑计划(Human Brain Project)中的很大部分也是基于这样一种理念:我们应该建造一种模拟神经元功能的芯片,越接近越好,然后将芯片用于建造超级计算机,当我们用一些学习规则来开启它时,人工智能就出现了。我认识这纯属胡说八道。
诚然,我刚才指的是欧盟人脑计划。并不是讽刺参与这个项目的每个人。许多人参与该项目的原因仅仅是因为它能获得巨额资助,这是他们所无法拒绝的。
Spectrum:对于一般意义上的机器学习,还有多少是有待发掘的?
LeCun:太多了。我们在实际的深度学习系统中使用的学习方式还是存在局限的。在具体实践中发挥作用的其实是「有监督学习」。你将一张图片展现给系统并告诉它这是一辆车,它就会相应调整它的参数并在下一次说出「车」。然后你再展现给它一把椅子、一个人。在几百个例子、耗费几天到几周的计算时间(取决于系统规模)之后,它就弄明白了。
但人类和动物不是这种学习方式。当你还是婴儿时,你并没有被告知你所看到的所有物体的名字。然而你却能学会这些物体的概念,你知道世界是三维的,当我把物体放在另一个的后面,你还是知道它的存在。这些概念不是与生俱来的,是你将它们学会了。我们把这种类型的学习称作「无监督」学习。
2000s中期,我们中的许多人参与到了深度学习的复兴运动中,包括Geoff Hinton、Yoshua Bengio和我自己——这就是所谓的「深度学习团体」——还有Andrew Ng,从此使用无监督学习而非有监督学习的理念开始兴起。无监督学习可以帮助特定的深度网络进行「预训练」。我们在这方面取得了不少成果,但最终能够应用于实践的还是过去那些能与卷积网络相结合的出色的有监督学习,我们在20年前(1980s)所做的事情。
但从研究的角度来看,我们一直感兴趣的是如何恰当地做好无监督学习。我们现在已经拥有了可以实用的无监督技术,但问题在于,我们仅需要收集更多数据,再配合有监督学习就能击败它。这就是为什么在现阶段的产业中,深度学习的应用基本上都是有监督的。但将来不会再是这种方式。
从本质上来说,在无监督学习方面,大脑远好于我们的模型,这意味着我们的人工智能学习系统缺失了许多生物机理学习的基本原则。
Spectrum:你之前已经说过,不同意那些与「奇点运动」相关的观点。我很感兴趣的是你如何看待与之相关的社会学方面的问题?对于它在硅谷如此受欢迎你怎么解读?
LeCun: 很难讲。对于这个现象我也有点困惑。正如 Neil Gershenfeld(译者注,麻省理工The Center for Bits and Atoms主任)指出,sigmoid函数曲线的初始部分是指数型上升的,这也意味着现在看起来指数般增长的趋势很可能会在将来遇到瓶颈,包括物理、经济,以及社会方面,紧接着经历拐点,然后饱和。我是乐观主义者,但同时也是现实主义者。
确实有些人会大肆宣扬奇点理论,比如 Ray Kurzweil。他是个典型的未来主义者,对未来持有实证主义的观点。通过大捧奇点,他卖了很多书。但据我所知,他却对人工智能学科没有丝毫贡献。他卖了很多科技产品,其中一些有一定的创新,但并没有概念性的创新突破。确定无疑的是他没写过任何指导人们如何在人工智能方面有所突破和进展的论文。
Spectrum:你觉得他在Google现有的位子上有什么成就吗?
LeCun:迄今为止,好像寥寥无几。
Spectrum:我也注意到当我和一些研究者讨论奇点理论时,有一个很有趣的现象。私下里他们好像对此(奇点理论)很不以为然,可是一到公众场合,他们的评论又会温和很多。这是因为硅谷的一切大人物都很相信的原因吗?
LeCun:一线的人工智能研究者需要保证一种微妙的平衡:对于目标要保持乐观,但也不能过分吹嘘。需要指出其中不易,但也不能让人觉得希望渺茫。你需要对你的投资者、赞助商以及雇员诚实;需要对你的同事、同行诚实;还需要对外界公众和自己诚实。当未来的进步有很多不确定时,尤其是当那些不够诚实和自欺欺人的人总是对未来的成功夸下海口时,这(继续保持诚实)很困难。这就是为什么我们不喜欢不切实际地大肆宣扬的原因,这是由那些不诚实或者自欺欺人的人干出来的,但却会让那些严谨诚实的科学家的工作变得更难。
如果你在Larry Page、Sergey Brin、Elon Musk、和Mark Zuckerberg那样的位置上,你就得时刻思考长期来看科技到底该走向何处。因为你掌握着大量资源,并且可以利用这些资源让未来朝你认为更好的方向行进。因此不可避免地你得问自己这些问题:10年,20年甚至30年后的科技到底会是什么样子?人工智能的发展,奇点以及伦理问题到底会是怎样?
Spectrum:是的,你说的对。但是你自己对于计算机科技如何发展有着很清晰的判断,我不觉得你会相信我们在未来30年就可以实现下载我们的意识。
LeCun:不会很快。
Spectrum:或许永远不可能。
LeCun:不,你不能说永远不可能。科技在加速前进着,日新月异。有些问题需要我们现在就开始关注;而另外一些则很遥远,或许我们可以在科幻作品中费点笔墨,但现在还没有担心的必要。