2018年3月,谷歌推出由超导电路制成的72个量子比特的Bristlecone芯片,超过了IBM的50量子比特和英特尔的49量子比特,成为迄今为止最大的量子芯片。
Bristlecone 是谷歌的最新量子处理器(左图)。右侧是这个芯片的结构示意图,每一个「X」代表一个量子比特,相邻最近的量子比特之间是相连的。
不少学者曾表示,量子计算机获得50-100个量子比特就能实现“量子霸权”,在一些领域有传统计算机所不具有的能力,比如在化学和材料学里模拟分子结构,还有处理密码学、机器学习的一些问题。
谷歌的Bristlecone给了我们这样的期待。但是,硬件具备,只欠东风。目前量子计算并没有真正地解决一个传统计算机无法解决的问题。
雷锋网获悉,为了让量子计算机真正发挥效用,谷歌在近日推出了用于量子计算机的开源框架Cirq,以便公众可以为量子计算机开发有用的算法。
Google AI Quantum团队在博文中写道,“Cirq专注于眼前问题,帮助研究人员了解NISQ量子计算机是否能够解决具有实际重要性的计算问题。”
量子比特相比传统计算机比特更强大,是由于两个独特的量子现象:叠加(superposition)和纠缠(entanglement)。量子叠加使量子比特能够同时具有 0 和 1 的数值,可进行“同步计算”(simultaneous computation)。量子纠缠使分处两地的两个量子比特能共享量子态,创造出超叠加效应:每增加一个量子比特,运算性能就翻一倍。比方说,使用五个纠缠量子的算法,能同时进行 25 或者 32 个运算,而传统计算机必须一个接一个地运算。理论上, 300 个纠缠量子能进行的并行运算数量,比宇宙中的原子还要多。
在谷歌看来,过去几年里,量子计算在量子硬件的构建、量子算法方面都有明显的发展,随着Noisy Intermediate Scale Quantum(NISQ)计算机的出现,开发用于理解这些机器功率的算法变得越来越重要。然而,在NISQ处理器上设计量子算法时的一个常见问题是如何充分利用这些有限的量子器件 ,集中资源来解决难题,而不是损耗在算法与硬件之间不良映射上。此外,一些量子处理器具有复杂的几何约束和其他细微差别,忽略这些将会导致错误的量子计算,或者导致修改和次优的计算。
雷锋网了解到,NISQ这个概念由美国人John Preskill提出,是是嘈杂中型量子(Noisy Intermediate-Scale Quantum) 的简称。拥有50-100量子比特、以及高保真量子门 (Quantum Gate) 的计算机,便可称为NISQ计算机。
谷歌开发出的具有72个量子比特的Bristlecone芯片便是NISQ。谷歌希望借助NISQ在五年内实现商业化。 据了解,该框架尚未在真正的量子计算机上运行(只是模拟一个),但有望帮助量子计算机找到一些用途。
Criq能提供什么样的算法开发支持呢?
Cirq为用户提供了对量子电路的精确控制、经过优化的数据结构,可用于编写和编译这些量子电路,从而使用户能够充分利用NISQ架构。 Cirq支持在模拟器上本地运行这些算法,可以通过云,与量子计算机或者更大的模拟器集成。
此外,Cirq支持在模拟器上运行算法,如果将来有了量子计算机,或者更大的模拟器,也很容易通过云,把设备和算法集成起来。
谷歌还同时发布了Criq的应用示例—— OpenFermion-Cirq。 OpenFermion是一个开发化学问题量子算法的平台。OpenFermion-Cirq则是一个开源库,它将量子模拟算法编译成Cirq。新库利用最新进展为量子化学问题构建低深度量子算法,使用户能够从化学问题的细节转变为高度优化的量子电路,定制为在特定硬件上运行。例如,该库可用于轻松构建量子变分算法,以模拟分子和复杂材料的特性。
谷歌表示,如果要实现其全部潜力,量子计算将需要强大的跨行业和学术合作。在构建Cirq时,我们与早期测试人员合作,以获得对NISQ计算机算法设计的反馈和见解。
以下是与早期采用者的Cirq合作示例:
Quantum Benchmark提供的本质上是量子诊断工具,可以告知最终用户量子处理器中的错误率,并帮助抑制这些错误。
QCWare的首席执行官马特约翰逊表示,谷歌模拟器的一个优势是用户最终能够在其上运行大规模问题,该公司的软件允许客户在多个硬件平台上运行量子算法。 “这将使我们的客户能够利用那些在功率方面肯定会成为领先硬件系统的产品。”
谷歌称,Google AI Quantum团队正在使用Cirq创建在Google的Bristlecone处理器上运行的电路。将来,谷歌计划在云中提供此处理器,而Cirq将成为用户为此处理器编写程序的界面。与此同时,谷歌希望Cirq能够提高各地NISQ算法开发人员和研究人员的工作效率。
NISQ是一个令人充满期待的术语,谷歌的Bristlecone也让人看到了量子比特数量不断增加的希望。然后,对于量子计算机的应用,很多专家并不“兴奋”。
MIT的Seth Lloyd教授认为,想要开发出有用的应用,系统至少应该有超过100个量子位。
Intel 高级副总裁、首席技术官兼 Intel 研究院院长 Michael Mayberry曾告诉雷锋网,虽然他看好量子计算的前景,但他也坦承这一技术还有漫长的道路要走;实际上,量子计算离真正地实现大规模商用还需要有 10 年时间。不仅如此,即使量子计算进入到商用阶段,它也不会让经典的计算方法变得过时(比如说当下基于 CPU 的计算),不管是深度学习还是人工智能,都不会因为量子计算的崛起和发展而变得过时——当然,量子计算可以解决很多目前常规计算能力无法解决的问题,比如说模拟材料、模拟药品、后量子时代的加密算法等。
看来,量子计算机的发展道阻且长。借助于谷歌的NISQ量子计算机和基于此的Criq算法,更多的探索和想象或将发生。
相关文章: