为了实现更高级别的人工智能,各方都在寻找解决方法。在现有的技术和产品上进行优化是一种收效更快的方法,然而具有革命性的新技术更能引起关注。其中,量子计算和类脑芯片每一次的进展都吸引了大量关注,它们的发展是否已经达到预期?
AI、量子计算、类脑芯片都是很早就被提出,但AI时代对量子计算和类脑芯片的需求更加迫切。原因是传统的冯·诺依曼结构出现了瓶颈,冯·诺依曼结构中计算模块和存储单元分离,CPU在执行命令时必须先从存储单元中读取数据,所以即便CPU处理的速度再快,也要等内存。由此,基于冯·诺依曼结的AI计算面临算力提升以及“内存墙”等挑战。
冯·诺依曼结构
那么,量子计算和类脑芯片都具备引领AI发展的潜力,这两种计算方式目前进展如何?
量子计算
你以为的量子计算
量子计算机用“量子比特(qubits)”来存储数,相比现在计算机使用的经典比特,传统的二进制存储数据只能是“0”或“1”的某状态,而1个量子位可以同时存储0和1,通过量子力学实现叠加。因此,量子计算能解决目前计算机系统无法解决的问题。
当然,提到量子计算许多人可能会想到的是量子计算的超强计算能力,比如一台50量子比特的设备运算速度可达每秒1125亿亿次,秒杀目前世界最强超级计算机。当然,还有人期待量子计算实现许多当下的计算机还不能实现的问题,比如密码破解,模拟量子物理系统,模拟材料学、化学和生物学,以及解决人工智能中的很多问题。
但实际情况如何?
据雷锋网了解,1980年代,量子计算机多处于理论推导状态,1994年彼得·秀尔(Peter Shor)提出量子质因数分解算法。到了2011年5月11日,加拿D-Wave 系统公司发布了号称“全球第一款商用型量子计算机”的计算设备“D-Wave One”,含有128个量子位。不过,该量子设备是否真的实现了量子计算当前还没有得到学术界广泛认同,只有证据显示D-Wave系统在运作的时逻辑不同于传统计算机。
之后,NASA、Google、IBM、新南威尔士大学、美国马里兰大学学院市分校相继在量子计算上取得一些进展,越来越多的学术机构、公司和国家加入了量子计算的竞争。2018年,巨头们的竞争更加激烈。
2018年量子计算备受关注
CES 2018上,英特尔宣布成功设计、制造和交付49量子比特(量子位)的超导测试芯片Tangle Lake。6月,英特尔称研究人员正在测试一种微小的新型“自旋量子位”芯片,这款芯片比铅笔的橡皮擦还小,是目前英特尔最小的量子计算芯片。
2018年3月,谷歌推出一款名为Bristlecone的芯片,据悉Bristlecone芯片拥有超导电路制成的72个量子比特,据称是最大的量子芯片,超过IBM的50量子比特和英特尔的49量子比特。
同月,百度宣布成立量子计算研究所,开展量子计算软件和信息技术应用业务研究,计划在五年内组建世界一流的量子计算研究所,并逐步将量子计算融入到业务中。
还是3月,微软宣布发现马约拉纳费米子的存在证据,下一步会将费米子转化为量子,并希望在2018年年底实现,并在5年内向其他企业提供可用的量子计算机。
5月,微软又在Build大会上宣布要在五年内造出一台拥有100个拓扑量子比特的量子计算机,并将其整合到微软云Azure中。
阿里巴巴量子实验室施尧耘团队也在5月宣布成功研制当前世界最强的量子电路模拟器太章。太章成功模拟了 81(9x9)比特 40 层的作为基准的谷歌随机量子电路,之前达到这个层数的模拟器只能处理 49 比特。
还是5月,《科学进展》杂志以《A chip that allows for two-dimensional quantum walks》为题报道了上海交通大学金贤敏团队通过“飞秒激光直写”技术制备出节点数达49×49的光量子计算芯片。据悉,这是目前世界上最大规模的三维集成光量子计算芯片。
9月的阿里云栖大会上,阿里CTO、达摩院院长张建锋表示达摩院已经开始研发超导量子芯片和量子计算系统。
10月,华为在全联接大会期间正式发布量子计算模拟器HiQ云服务平台,包括量子计算模拟云服务以及量子编程框架。
12月,中国科学技术大学郭光灿院士团队宣布成功研制出一套精简、高效的量子计算机控制系统。
2019年首个独立商用量子计算机推出但不被看好
量子计算在2018年引发了不少的关注,刚进入2019年,量子计算又引发巨大关注。雷锋网上周报道,CES 2019上IBM宣布推出世界上首个专为科学和商业用途设计的集成通用近似量子计算系统IBM Q System One,并且,IBM还计划于2019年在纽约Poughkeepsie开设首个IBM Q 量子计算中心。
IBM Q系统的目标是解决当前经典系统无法处理的被认为是过于复杂的问题,帮助开发者构建量子计算机与常规架构计算机之间的接口。IBM同时指出IBM Q旨在解决量子计算最具挑战性问题之一:持续保持用于执行量子计算的量子位的质量。
IBM看好量子计算的未来应用包括寻找新的方法模拟金融数据,隔离关键的风险因素以进行更好的投资,或者找到跨系统的最佳路径,以实现超高效的物流和优化交付的运营。
IBM在量子计算的商业化方面走的更远,其在2016年就开发出具有5位量子比特的量子计算机,并向公众免费开放IBM Q量子计算机的云访问权限。
不过,外界并不看好IBM的首个独立商用量子计算机,外媒The Verge称:像IBM Q System One这样的量子计算系统仍然是实验性的。在涉及到现实生活的计算时,你的笔记本电脑可能更强大。Tech Crunch评论指出,对于大多数商业应用,一台20-Bit的机器还远远不够。更有评论表示,IBM只是在自己的实验设备外面加了一个华丽的外壳而已。
除了IBM,澳大利亚新南威尔士大学也在近日发布消息,表示该校量子计算与通信技术卓越中心(CQC2T)的研究人员已经证明,他们开创性的单原子技术可以适用于构建3D硅量子芯片,实现具有精确的层间对准和高精度的自旋状态测量,并达成全球首款3D原子级硅量子芯片架构,朝着构建大规模量子计算机迈出了重要一步。
只是,IBM的首个独立商用量子计算机都发布之后就备受质疑,实验室里的突破需要多长时间才能为构建大规模量子计算贡献力量也不得而知。
因此,量子计算确实是未来重要的方向,各个国家和巨头也投入大量资金进行研发,但是想要达到理想中的量子计算的状态,还有很长的路要走,在火热的发展中理性看待。
类脑芯片
类脑芯片架构是模拟人脑的神经突触传递结构,通过模仿人脑工作原理使用神经元和突触的方式替代传统冯诺依曼架构,使芯片能够进行异步、并行、低速和分布式处理信息数据,并具备自主感知、识别和学习的能力。
类脑芯片在2018年1月迅速引发了广泛关注,因此斯坦福大学研究院电子与微系统技术实验室的Jeehwan Kim教授在《自然》杂志上发表的一篇论文表示其与研究员们使用一种称为硅锗的材料研发了一款人工突触芯片,可支持识别手写字体的机器学习算法。
IBM TrueNorth引发轰动
不仅是学术界,在工业界,IBM不仅在量子计算的商用化方面进展迅速,在类脑芯片的研究中先人一步。2011年8月在模拟人脑大脑结构基础上,研发出两个具有感知、认知功能的硅芯片原型TrueNorth引发轰动。
2014年TrueNorth第二代发布,大小只有邮票大小的硅片上集成了100万个“神经元”,256个“突触”,4096个并行分布的神经内核,用了54亿个晶体管,其性能相比第一代也有不小的提升,功耗方面每平方厘米消耗20毫瓦,是第一代的百分之一,直径为几厘米,是第一代的十五分之一。
IBM称如果 48 颗TrueNorth芯片组建起具有 4800 万个神经元的网络,这48颗芯片的“智力水平”将与普通老鼠相似。
2014年IBM发布第二代TrueNorth之后,直到2017年11月,科技部的消息称IBM公司即将开发由64个TrueNorth类神经形态芯片驱动的新型超级计算机,该新型超级计算机能进行大型深度神经网络的实时分析,可用于高速空中真假目标的区分,功耗比传统的计算机芯片降低4个数量级。
不过,2014年IBM公布TrueNorth后,深度学习先驱和Facebook AI研究团队负责人Yann LeCun在一篇文章中写道,该芯片在执行使用卷积神经网络的深度学习模型进行图像识别的时候会遭遇困难。
英特尔Loihi芯片比虾脑复杂
比IBM的TrueNorth新型超级计算机消息早两个月,英特尔在2017年9月推出了自学习神经芯片Loihi,据悉Loihi由 128 个计算核心组成,每个核心有 1024 个人工神经元,整个芯片共有超过 13 万个神经元和 1.3 亿个突触连接。
与所有的神经元芯片一样,Loihi模仿了大脑的运作方式,以“刺激神经元”作为其基本的计算基础,根据环境的不同反馈模式进行操作,这些神经元代替了传统硅片中的逻辑门,没有将信息作为二进制的1和0进行处理,而是将它们发送的信号加权,使其功能比二进制更加模拟。
英特尔称Loihi比当今处理器能耗比提升高达1000倍,并且称该芯片可以适应 Go 语言并使用它学习,Loihi完全不需要依赖大规模数据和大量算力的深度学习,可以自主学习(self-learning)。
也就是说,Loihi可以在单个芯片上完成训练和推理,用于现实世界中需要实时学习的设备:自动驾驶无人机和汽车,实时适应环境中发生的状况;用摄像头找寻失踪人口;或者让红绿灯自动适应交通状况。
在2018年,英特尔神经拟态计算项目主管Mike Davies预测,机器人将是神经拟态计算的杀手级应用。并表示英特尔已经向特定研究合作伙伴提供了首批开发系统,他们正在进行感知、马达控制、信息处理等多种应用的研究。
需要指出的是,从神经元数量上看,Loihi 芯片比一个简单的虾脑更复杂一些。而人类大脑由超过 800 亿个神经元构成,也就是说,这个芯片距离模拟人类大脑的内部的复杂行为还很遥远。
高通的Zeroth芯片到神经处理引擎
高通也在类脑芯片上积极布局,2013年,高通表示正在打造一个全新的计算处理器,这项技术能够模仿人类的大脑和神经系统,让终端更加智能,可以预测需求,高通将其命名为Zeroth。
2015年,高通表示Zeroth的“脑启发计算”研究项目在2014年取得了显著进步,针对为仿生脉冲神经网络研发的构架和工具,高通已经开始收集一些指定公司的反馈。高通同时表示Zeroth团队与Planet GmBH合作,展示了在骁龙和Zeroth平台上运行深度卷积递归神经网络的力量。移动终端完全基于光学字符识别(OCR)的手写识别首次得到验证。
高通还用装载该芯片的机器小车进行了演示,使小车在受人脑启发的算法下完成寻路、躲避障碍等任务。
MWC 2015上,高通正式发布骁龙820以及使用这一处理器的软硬件结合“认知计算平台”Zeroth。高通表示借助这一平台,智能手机将变得更加聪明,可以在用户发出指令前预测其需求。
2016年,名为高通Snapdragon神经处理引擎的SDK搭载Qualcomm Zeroth机器智能平台,特别进行优化以发挥Snapdragon的异构运算功能。
不过,由于Zeroth在设计之初并不是专为AI手机和移动终端AI芯片的计算方案,在功耗和运算效率上仍然有着自己的瓶颈,因此,针对AI手机和AI终端的AI芯片高通推出了更为契合的AI Engine,Zeroth也没有更多消息。
中国团队的类脑芯片
除了芯片巨头们,国内AI芯片初创公司西井推出了自主研发的拥有100亿规模的神经元人脑仿真模拟器(Westwell Brain)和可商用化的5000 万类脑神经元芯片(DeepSouth)两款产品,其中可商用化的芯片能模拟5000万级别的“神经元”,总计50多亿“神经突触”,据悉该芯片具备“自我学习、自我实时提高”的能力,还可直接在芯片上完成计算,不需要通过网络连接后台服务器,可在“无网络”情况下使用。
还有国内的小型类脑芯片研究团队AI-CTX,据称他们设计出的一款类脑芯片模型,不仅每个神经元都具有跟人脑神经元类似的电学特征与动态参数,具有简单的运算与存储功能。还采用一种特殊的布线方式,使各芯片之间的交流突破物理限制,增加芯片群组的原有网络,擅长处理如温度、气压、人体信号、loT等包含时间参数的数据。
雷锋网小结
量子计算和类脑芯片都可能成为改变AI的两大技术,但即便巨头们投入大量资源进行研发,这两项技术仍面临许多挑战,规模化应用也没有明确的时间表。这两项技术也被不断质疑,IBM推出首款量子计算机之后面临质疑,对于谷歌将在2018年实现量子霸权的乐观态度,竞争对手阿里巴巴也提出质疑。
各大公司的研究成果表明,像IBM TrueNorth这样的类脑芯片运行的效率还不及在传统架构上运用神经网络的芯片。英特尔实验室的高级首席工程师和首席科学家 Narayan Srinivasa 也承认英特尔的Loihi芯片在使用一些深度学习模型时表现不好。
不过,Heriot-Watt大学教授Michael Hartmann在最新的论文中写道:“我和我的同事希望建立第一台专用的神经网络计算机,使用最新的'量子'技术而不是AI软件。通过将神经网络和量子计算两个计算分支结合起来,希望能够产生突破,让AI以前所未有的速度运行,在很短的时间内自动做出非常复杂的决策。”当然,Michael Hartmann也表示这需要十年或更长的时间。
相关文章: