深度学习软件毫无疑问推动了人工智能的浪潮。现在,许多公司和研究人员都在花大力气在软硬件上对人脑进行模拟。
在硬件方面主要是通过对大型神经网络进行仿真。如 Google 的深度学习系统Google Brain,微软的Adam等。但是这些网络需要大量传统计算机的集群。比方说 Google Brain 就采用了 1000 台各带 16 核处理器的计算机,这种架构尽管展现出了相当的能力,但是能耗依然巨大。
而 IBM 则是从芯片着手进行模仿。:它设计了一种叫 TrueNorth 的仿人脑电脑芯片,并把它当做深度学习的硬件平台。目前,公司正在对该芯片的性能进行研究测试。
深度学习之所以能力强大,关键在于其中的一项算法——卷积神经网络( convolutional neural networks )。它包含了大量的节点层( layers of nodes ),也称神经元(neurons)。像这样的神经网络可以通过深度结构过滤大量的信息,进而实现自动识别人脸或理解不同语言的功能。
IBM 不久前的一项研究显示,在能支持多种神经网络的仿人脑硬件上,卷积神经网络算法同样有用。
7 月 9 日, IBM 把自己的一项研究成果刊登在了 Proceedings of the National Academy of Sciences上。该项研究由 U.S. Defense Advanced Research Projects Agency (DARPA) 资助,数额近 100 万美元。这项支持是该机构皮质处理器项目( Cortical Processor program)的一部分,旨在促进能识别复杂情况和适应环境变化的仿人脑人工智能的研究。
Dharmendra Modha 是 IBM 研究中心 Almaden 仿人脑计算项目首席科学家。他表示:
这个研究具有里程碑式的意义,而且证实了一个显而易见的概念:仿人脑计算的运行效率会随着深度学习效率的提升而提升,而这又为新一代芯片和算法提高工作效率和正确率铺平了道路。
2011 年,IBM 第一次对外具体公布 TrueNorth 和其芯片原型,而以卷积神经网络为基础发展起来的深度学习革命却开始于 2012 年。由此可看出,刚开始并不是专门为了应用深度学习而设计 TrueNorth ,反而有了 TrueNorth 才促进了脉冲神经网络去模仿真实生物大脑中的神经元连接构造。
脉冲神经网络中的神经元并不是在每一次迭代传播中都被激活(而在典型的多层感知机网络中却是),而是在它的膜电位达到某一个特定值后才被激活。这有效减少了图形认知或语言处理的运行速度。
但深度学习专家却觉得,同样是用在机器学习上,至少和卷积神经网络相比,脉冲神经网络的效率并不够高。
Yann LeCun 是 Facebook 人工智能研究院理事、深度学习领域的先驱。他曾批评过 IBM 的 TrueNorth 芯片,把它称之为草包族科学。他说,IBM 只是复制了机器的表象,却没有深入理解及其背后的原理。
有反对的声音,但也有支持的声音。 Zachary Chase Lipton 是加州大学(位于圣地亚哥)人工智能团队深度学习研究员。他说,
TrueNorth 可以促进实现神经形态计算,要知道,深层次模仿和理解生物大脑正是神经形态计算的功劳。
通过对比不同学者们的观点可以发现,深度学习研究人员通常更关心的是如何使实践结果应用到以人工智能为技术支撑的服务和产品上。
还拿那个老套的鸟和飞机的比喻做例子。你可能觉得卷积神经科学研究鸟更多;而脉冲神经科学则更多关注空气动力学,生物学可有可无。
专有计算机硬件对机器学习的好处越来越明显。因此,神经形态芯片并没有让人觉得很兴奋的原因主要是,在深度学习中脉冲神经网络并没有那么流行。
因此,为了使 TrueNorth 芯片能更好的应用机器学习,IBM 必须研究出一种新的算法来帮助卷积神经网络在神经形态计算机硬件上运行的更好。
在研究测试中,TrueNorth 可以给图片数据分类,每秒速度1200-2600帧,能耗25-275毫瓦。处理器还能够识别图片模式,这些图片是50-100个摄像头以每秒24帧的速度拍摄的。
TrueNorth 刚开始进行深度学习测试就获得这样的结果,给人的印象好像还挺深刻。但是,大家还是谨慎为好, Lipton 说,毕竟视觉数据集在处理32×32 素的图像时,还存在有少量问题。
不过这可影响不到 Modha 。他依旧怀着热切的心情继续着 TrueNorth 深度学习测试。他和他的同事希望芯片测试能在无限制的深度学习环境下进行。这需要他们在训练神经网络时逐步引进硬件限制,而不是从一开始就对其完全限制。
Modha 还指出,TrueNorth 的其中一个优势是它的普适性,其他很多深度学习硬件都只能在卷积神经网络上运行,但 TrueNorth 可以接受多种类型的人工智能网络。
“TrueNorth 不仅可运行卷积神经网络(虽然设计者一开始无意于此),支持多种包括反馈、横向以及前馈的连接模式,还能应用多种其他的算法。”
像这样的类生物芯片只有比其他深度学习硬件应用更出众才能流行起来,Lipton说。同时,他还建议到, IBM 可以利用它的硬件公司,和 Google 、Intel 一起为设计深度学习专用芯片而奋斗。
“我想,未来肯定会一些神经形态芯片制造商,他们会通过自己的硬件公司来加速芯片的发展以使整个行业更集中于实践性深度学习的应用,而不是纯粹的生物模仿。”
延伸阅读: