雷锋网按:于尔根·施密德胡伯(Jürgen Schmidhuber)可谓深度学习的元老,他在1992年提出了多层级网络,利用无监督学习训练神经网络的每一层,再利用反向传播算法调优。而在1997年,他与 Sepp Hochreiter 共同发表了一篇论文,提出了长短期记忆(LSTM)的概念。
LSTM 能够提升神经网络接受输入信息及训练数据的记忆机制,让输出结果得到大幅度的提升。但是,这一概念远远超越了当时的计算机硬件水平,以至这一想法直到近年才广为人知。比起如今更为知名的 LeCun、Ian Goodfellow、Hilton而言,施密德胡伯似乎名气不大,但包括谷歌在内的研究机构都开始采用 LSTM。他曾经表示:“没有任何原因说明,机器不能拥有好奇心和创造力”,而近日Inverse对施密德胡伯进行的一次访谈,则更能看出这位科学家对于人工智能的前瞻与展望。雷锋网编译如下,未经许可不得转载。
在你心中,人工智能在未来会承担怎样的角色?
所有的智能——不论是人类的还是人工的——都基于一个主题,那就是解决问题。长期以来,我们一直在致力于构建一个解决通用问题的机制,不论这些问题是困难还是简单。这个问题解决机制能够通过先前学习的技能解决现有的问题,通常,机器会将新的技能增加到计算指令系统中,并能够解决越来越通用的问题。当然,如果到达我们所预想的成功,一切将会发生翻天覆地的改变,因为每个计算问题或每个专业性研究都将受到影响。
我想指出的一点是,我们早在25年前就拥有了少量的、基础的且有意识的学习系统。回顾彼时,我已经提出通用学习系统由两个模块组成。
其中一个为递归网络控制器,能够学会对输入的数据(比如视频或平面指示牌)翻译为具体操作。举个例子,当你机能不足时,身体会释放饥饿信号向你发出警告。而神经网络能够将这些信号转换为行动的操作序列。同样是上述情况,那么人体就会意识到自己饿了,并寻找“能够充电”的东西(吃的),而与此同时,人体还会注意不要磕碰到桌椅,以避免痛觉发出信号。
如果把人体当作一个处理器,那么身体的人生目标便是尽可能将愉悦感最大化,并减少痛苦。这个目标非常简单且具体,但很难实现,因为你需要通过大量的学习。想象一个襁褓中的婴儿需要经过多少年的学习,才能懂得和这个世界共处。
自1990年开始,我们同样也对机器开始做同样的事情,即采用无监督学习训练神经网络,并进行反向调优,这个模型能够预测未来将要发生的事情。看着以前执行的操作并进行观察,学会预测未来——因为它是一个会反复出现的网络,在某种程度上可以理解为可预测的代码。
比如,视频里出现了100个苹果掉落,而且每个苹果掉落的方式都是相同的,那么你就能预测出苹果掉落的方式。甚至也不需要单独存储(每个苹果掉落的模式,因为都是一样的),也不需要占用你脑袋太多的内存。
随着与环境的交互越来越深入,大量的数据也涌入其中,无监督模型网络,也就是我在1990年就提出的新模式,学会了发现新的规律,或是对称性,或是反复性。它也能学会用更少的计算单元处理数据,也就意味着更少的存储空间与更少的时间。曾经被誉为意识的东西,实际上在学习的推移中变成了自动化与无意识的活动。
随着神经网络的发展及学习了更多规律后,机器能够判断无监督模型的解析需要多少计算量。这也是神经网络的有趣之处:从一个数字,到第一层网络,到能给回馈信号最大化的控制器——就像科学家突然发现了新的定律一样。
当我们身处这个世界,实际上我们会见到很多人的面孔。而这些记忆被压缩在你的大脑里,以一个类似反向网络的形式存在着。“面部编码器”,也就意味着有一个类似刻板印象的面部数据库。当你遇到一个陌生人时,你需要做的就是将这些新的偏差元素进行编码。
意识实际上可以理解为一个中间处理系统,而这个中继器与世界交互的过程中,它会发现自己本身就是与世界交互的最佳形式。
出于数据压缩的原因,如果能设置一对神经元,实际上对反向模型神经的编码非常有效。它能够压缩以往所有的行动和感知,通过创建个性化符号及代理器的附加符号(比如手、脚还有随便什么东西)。在寻找一个新问题的解决方案时,这些神经元会被激活,并开始处理这些问题。
这也是我们1991年所在做的事情。诚然,这是一种基本的意识形态——并没有你自己的那么令人印象深刻,毕竟你的大脑比起人工代理器而言简直是庞然大物。人类大概有着10万亿个连接,而当今最大的 LSTM网络也只有10亿个连接。因此,你的皮质是LSTM网络的10万倍,可以携带的意识自然也比我们的小小人工处理器更多。不过,我们注意到了计算界也有摩尔定律——每五年,计算成本就会便宜十倍。因此,也许只需要25年,我们就能拥有和自己大脑一样多的连接的LSTM网络,而且造价也更便宜。
而这些连接自然会比我们的人工大脑所构建的连接要慢得多。
我认为这是可以实现的。在行为上,我们的人工智能有着相似的原理。当我们把AI与其它会伤害后者的两个代理器放在一起时——比如把它们设定为捕食者与猎物的关系——其实它们不希望受到伤害。当一个人工智能模型遭到一次攻击,后者的疼痛系数会显示上升。当然,它会学着预测与避免,比如躲在帘子后面,或模拟对方的行为。因此,从人工智能自行学习的过程中来看,你可以发现它并不喜欢这样做。
当然,这是我们观望了很长一段时间后而得出的结论。我们的人工智能尝试避免疼痛,并试图追求最大化的乐趣与内心的愉悦感——因为内置了一个效用函数与奖励机制,机器会让这个目标最大化。
当然,人类也有这样的奖励功能,并已经根植于每个新生儿的体内。这些行为至少在高等动物上非常常见。因此,我们没有理由相信这是不可复制的。
对呀。我经常在想,这些内省的思考是否源自第一原则,而我是否可以在我自己的思维中重新发现这些内容。我相信自己可以做到这一点,虽然我知道,很多人会被这种想法所欺骗,但于我而言,这仿佛是显而易见的:或多或少与我正在做的事有关。对我来说,显然不需要别的东西来解释意识。我也相信,理解意识的所有基本成分都已经存在了四分之一个世纪。神经科学的研究者们或许不知道人工智能的神经网络领域已经发生了怎样的变化,他们尚未意识到这些简单的基本原则。但我相信,他们会更多地了解这一点。这也是我希望看到的。
最近在纽约,我在一次关于伦理和 AI 的会议发表了演讲。一名观众提出了一个尖锐的问题,不过我以自己在在上世纪80年代一个小型会议上所说的原句回应了他:“我必须承认:我的公司正在制作 androids 机器人,而我会把自己当作原型。我可能不具有意识,但我善于伪装这一点。”
via inverse
【兼职召集令!】
如果你对未来充满憧憬,喜欢探索改变世界的科技进展,look no further!
我们需要这样的你:
精通英语,对技术与产品感兴趣,关注人工智能学术动态的萝莉&萌妹子&技术宅;
文字不求妙笔生花,但希望通俗易懂;
在这里,你会收获:
一群来自天南地北、志同道合的小伙伴;
前沿学术科技动态,每天为自己充充电;
更高的生活品质,翻翻文章就能挣到零花钱;
有意向的小伙伴们把个人介绍/简历发至 guoyixin@leiphone.com,如有作品,欢迎一并附上。