在已知物理定律的限制下,我们能制造出的最好的计算机是什么?争夺这一头衔的是通用、容错和可扩展的量子计算机。
这台建立在量子理论基础上的机器能够运行任何量子算法,检测并纠正任何可能危及计算的错误,并容纳大量量子比特。
当下,实验室中存在基于各种底层物理实现的小规模量子计算设备,它们已经发展了十多年,并展示了构建系统所需的基本特征。目前的挑战在于如何扩展这些系统,使其足够大、足够快、足够精确,以解决经典系统难以解决的问题,如大数分解和其他量子力学系统的精确模拟。这种计算机的结构将是其性能的关键。构建有用的量子计算机需要更好的量子比特和更好的门。在含噪声的中等规模量子(NISQ)时代是如此,在构建未来的变革性容错量子计算机(FTQC)时也是如此。
2017年,John Preskill曾将NISQ)计算机定义为大规模纠错容错量子计算机 (FTQC) 道路上的中间步骤。尽管如此,构建FTQC不仅是一项更艰巨的挑战,而且在许多方面与NISQ所需的努力有着本质区别。
这是因为NISQ开发的许多方面可能与容错无关,例如错误缓解、变分算法和更多种类的门。FTQC需要针对非常特殊的错误反复高质量地运行几个门,而其他错误并不重要。
容错蓝图可以实现这一目标,帮助硬件团队关注重要操作中的重要错误。容错蓝图到底是什么?它是硬件制造商构建和运行有效FTQC的详细计划。蓝图描述了从如何定义和制造物理量子比特、如何操纵量子比特使其具有容错性,到如何处理从设备中产生的海量数据以发现错误并纠正错误等所有内容。
蓝图对于硬件制造商实现容错至关重要,因为每种不同的量子计算制造模式都有不同的优势和局限性:哪些操作和连接是可能的制约因素,以及量子比特和门的不完美之处。了解这些约束和缺陷的影响既重要又具有挑战性:需要利用深厚的理论专业知识对误差和约束进行建模,并使用功能强大的设计软件进行模拟。这样,它就为硬件开发工作提供了强有力的杠杆。
一些硬件开发能力最强的团队已经制定了容错路线图。在这些团队中,有些甚至已经发布了详细的蓝图:PsiQuantum、Xanadu、ORCA、Quandela和Photonic Inc.在光子学和光可寻址自旋方面,谷歌、IBM和AWS在超导量子比特方面,Quera在中性原子方面,Universal Quantum和EleQtron在捕获离子方面都制定了自己的技术蓝图。
这些努力以及学术团队的一些平行努力,都揭示了相关硬件的限制和不完善之处,并找到了克服它们的方法。
示意图显示了NISQ处理器和未来大规模FTQC的量子计算“系统层”,这些“层”显示了从基本硬件到顶级应用的必要组件
现实应用对逻辑门数量的要求汇总。容错能力将使NISQ时代的量子计算机弥合上述10000倍的差距
但这仅仅是容错设计的开始。量子行业所倡导的每一种独特的硬件模式都有其自身的缺陷和限制,必须在其蓝图中加以解决。对于主要平台中许多较新的硬件模式,以及一些新颖和有前途的硬件平台来说,这些蓝图的构建仍在进行中。而目前已经存在的针对较成熟计算模式的蓝图需要变得更加全面,找出并解决实现FTQC的所有重大限制。
一直以来,容错量子计算机都是“圣杯”,一大批研究机构和商业企业正在通过不同的技术方法追求这一目标。
容错意味着我们可以设计出可靠的量子电路,尽管量子比特(量子比特)和门存在不可避免的缺陷。
在容错量子计算机中,运行用户算法的可靠的“逻辑”量子比特和门反过来由大量有噪声的“物理”量子比特和门组成。只有以正确的方式连接和控制大量物理量子比特和门,才能将噪声量子设备转化为可靠的计算机器。
如今的机器体积不大、容易出错,处于所谓的“含噪声中等规模量子计算”(NISQ)发展阶段。需要指出的是,构建容错量子计算机与构建NISQ设备不同,而不仅仅是更难。
改进NISQ器件和构建变革性FTQC都是极具挑战性的工作:两者都需要更多、更好的量子比特以及更高质量的门。乍一看,我们在实现有用的NISQ和变革性FTQC的道路上遇到的挑战似乎相似。然而,深入研究后,就会发现其中的细微差别。
现在,让我们举例说明NISQ开发与FTQC有何不同:
1)减少错误
错误缓解使NISQ设备大放异彩。正如最近IBM的演示所示,零噪声外推法和概率误差消除法等方法可以为NISQ器件实现量子效用提供所需的推动力。大量的研究工作为实现这一目标做出了贡献,更多的研究工作正在进行中,以使这些方法更加强大。
另一方面,FTQC与当前为使NISQ器件更有用而正在进行的误差缓解方案不兼容。这是因为这些方案所使用的方法从根本上说似乎与容错相抵触。特别是,当前的错误缓解方案需要对同一电路进行多次运行,以获得多个经典结果,并将这些结果后处理为缓解后的经典输出。另一方面,FTQC需要实际的量子信息是稳健的,这需要利用量子比特数量的冗余来实现,而通过多次运行电路来获得稳健的量子信息是不可能的。
2)连接性
提高NISQ性能的另一个重要方法是提高物理量子比特之间的连接性。更高的连接性很有帮助,因为它允许在实际硬件上运行用户所需的电路,而开销却大大降低。在NISQ中,显然连接性越高越好,而FTQC的情况则更为复杂。
容错方案也有可能从长距离连接中获益,例如使用基于量子低密度奇偶校验(LDPC)码的方法,但寻找好的LDPC码(既能进行快速逻辑计算,又能很好地纠错)的问题仍未解决。
3)本地门集
NISQ因拥有大量可用的本地门而受益匪浅。每个NISQ算法都编译到本地门,而本地门的保真度远远高于其他门。可用的高保真原生门的种类越多,电路就越浅,因此计算结果就越精确。
相比之下,FTQC需要的门电路种类要少得多,而且需要反复运行。例如,谷歌最近的纠错演示仅依赖于两个门电路——哈达玛门电路和Control-Z门电路以及测量。全面容错可能需要几个额外的操作,但不会太多。
所有这一切都表明,与针对NISQ的优化相比,针对FTQC的优化需要优先考虑硬件的不同方面。与同时专注于NISQ和FTQC或只专注于NISQ的团队相比,专注于FTQC的团队可以更快地实现这一目标。
量子计算在资源(物理量子比特数量)和错误概率方面的前景。橙色阴影区域描绘了也可以经典模拟在其上执行的任务的状态,蓝色区域代表NISQ体系,在该体系中可以利用量子优势执行任务;最后,浅绿色区域代表使用纠错的量子计算机(QC),而深绿色区域是容错通用量子计算机
NISQ和FTQC各自的一些优点和挑战
NISQ的临界错误不同于FTQC的临界错误:甚至FTQC可容忍的误差类型也可能与NISQ器件大相径庭。消除相位是NISQ设备和FTQC都需要解决的标准错误。擦除错误的情况则不同,擦除错误描述的是一个量子比特在计算过程中丢失,例如,由于光损耗而丢失。
在NISQ设备上,从用户的角度来看,擦除错误是致命的,因为它会导致计算机运行与用户意图完全不同的电路。另一方面,FTQC对擦除误差的耐受性非常好,几乎比更常见的去相差和其他所谓的保利误差好一个数量级。这可能会对行业的发展方向产生一些有趣的影响,例如,在用户有高擦除误差和低保利误差的硬件平台上,FTQC可能比NISQ更适合。
事实上,线性光量子计算就是这种情况,PsiQuantum公司就是其中之一,它是第一批直接跳过NISQ时代,致力于FTQC的公司。
不同的硬件平台对物理量子比特的连接和控制有着截然不同的限制。
最明显的区别在于光子学平台和基于物质的平台,如超导量子比特、捕获离子、中性原子和电子自旋。对于后者来说,量子比特是大块物质,门是通过用电磁波束(光波、微波和射频辐射)对这些大块物质进行“斩波”来实现的。
在光量子计算中,量子比特是电磁波,但门是通过将电磁波与半银镜或“分光镜”等大块物质进行干涉来实现的。当然,对以光速飞行的量子比特和那些被制作到量子芯片上的量子比特的限制是完全不同的。光子平台与物质平台的另一个区别是,光量子比特一经测量就会被破坏。这种差异意味着基于电路的常见容错方法不适合光子技术,因为这些方法依赖于频繁重置相同的量子比特,因此基于测量的方法正被考虑用于光子容错:这些方法允许在不重置量子比特的情况下运行。
即使在物质量子比特中,硬件限制的差异也大于它们的相似性。有些量子比特是在芯片上的固定位置制造的(超导量子比特和自旋量子比特),而另一些量子比特则是利用电磁场悬浮的(捕获离子和中性原子),如有需要,可以穿梭移动。有些平台可以实现全对全的连接(捕获离子),而其他类型的量子比特只能与相邻的量子比特进行交互(超导量子比特)。
这对可使用的纠错码有严重影响。局部相互作用——量子比特只与近邻对话,基本上将平台限制为所谓“表面码”的某个版本(表面码是最早提出的纠错方案之一)。表面码实现的例子包括谷歌在最近的实验和芯片设计中采用旋转XZZX表面码的方法,以及IBM设计的重六边型编码。在可以移动部分或全部量子比特的平台上,可以使用承诺降低每个逻辑量子比特硬件成本的代码,如量子LDPC码。
物质平台之间的差异不仅限于连接性。就栅极作用而言,滞留离子是出了名的慢(微秒),而超导量子比特则快得多(纳秒)。有些量子比特需要巨大的低温恒温器,而另一些则需要真空室才能运行,这就导致控制信号和读出信号的带宽和能量不同。纳秒级的快速栅极需要极快的解码速度,这就需要精度较低的解码程序或两阶段解码程序,后者会导致额外的热负荷,因为两阶段解码中的一个阶段可能会在低温恒温器中进行。
保真度较高的慢速平台有可能使用精度较高的慢速解码算法。
现有QPU的典型功耗及其来源。注意:目前这些系统都不具备量子优势
上表列出了光子、超导、离子阱等量子计算平台中一些最重要的技术缺陷
物理量子比特的量子态会受到来自环境的许多不同噪声源以及作用于它们的不完美门的扰动。实际上,每个平台都会有数十种不同的缺陷来源。
需要注意的一个方面是,不同平台的噪声源差别很大。当然,这一点在量子计算硬件制造团队内部是众所周知的。不同的硬件团队已经发现了这些不完善之处,并在不断加以改进。
但人们不太了解的是,不同的缺陷对逻辑量子比特性能的影响是截然不同的。例如,我们在前面提到过的,虽然光学损耗导致的10%擦除错误率是可以容忍的,但类似的容错协议只能容忍约1%的去相位错误。对于泄漏误差,容错率还要低一个数量级,因为泄漏误差在超导量子比特中非常严重,如果不加以缓解,有可能以不受控制的方式扩散到相邻的量子比特。
目前可用的商用门式量子计算系统的双量子比特门保真度和量子比特数散点图。可行的NISQ QPU要求其性能指标位于左上方绿色的空斜区域。倾斜的原因是,随着量子比特数的增加,量子比特保真度必须更高,才能容纳更大的量子体积。IBM的区域对应于每一代QPU在多次迭代中不断提高保真度,黄色区域对应的量子计算机制可以很容易地在经典计算机上模拟要求苛刻的“状态矢量”模式。在20量子比特以下,使用简单的笔记本电脑速度更快、成本更低;在29量子比特以下,使用SV1 AWS服务器实例速度更快;在40量子比特以下,使用Eviden (Atos) QLM这样的集群服务器和1 TB内存速度更快;使用AWS云服务器速度可达44量子比特。资料来源:截至2023年5月12日
不同的制约因素和不同的不完善之处要求采用不同的容错途径。主要的硬件制造商敏锐地意识到了这一点,并制定了自己的“蓝图”,提供了实现容错的途径。
在光子学领域,PsiQuantum、Xanadu和Orca的蓝图侧重于不同的模式,处于领先地位。在光子学领域,已经开发出基于离散变量(即以单光子为量子比特)或连续变量(即比单光子更难产生但更容易测量的特殊光状态)的容错量子计算蓝图。
在离散变量中,通往容错线性光量子计算的首批真正途径之一是由Simon Benjamin小组于2015年开发的。他们提出的架构依赖于首先生成所谓的“积木态”,然后将其纠缠成一个三维簇态;这个三维簇态反过来又用于容错量子计算。
这篇论文解决的关键硬件制约因素是光子学中的双量子比特门本身具有概率性,根据所使用的确切光子电路,可能会有25-50%的时间出现故障
论文链接:
https://journals.aps.org/prx/abstract/10.1103/PhysRevX.5.041007
PsiQuantum公司介绍了一种基于融合的量子计算方法,该方法提供了更简单、更可行的构件状态,还降低了对长延迟线和有损延迟线的要求。PsiQuantum的后续作品提供了更多关于容错路径的细节,包括创建这些构件状态和使用时域光子学概念实现容错的想法。
PsiQuantum估计了基于聚变的量子计算方案在容错光子量子计算机上模拟锂离子电池中的电解质分子所需的资源
论文链接:
https://journals.aps.org/prresearch/abstract/10.1103/PhysRevResearch.4.023019
最近,ORCA发表了对基于融合的量子计算的修改,利用了同时对两个以上量子比特进行的测量,并进一步改进了基于融合的量子计算所需的纠缠资源状态的生成。尽管这些工作很可能还不是他们的全部蓝图,但看到PsiQuantum和Xanadu以外的团队开始发布他们的容错工作,还是具有积极意义的。
在连续变量中,Xanadu蓝图引入了一种方法,利用所谓的Gottesman Kitaev Preskill量子比特来执行基于测量的量子计算。这些量子比特是光的特殊状态,没有经典的类似物。尽管有人建议利用高斯玻色子采样以概率方式生成它们,但它们尚未在光子系统中生成。该蓝图考虑并解决了量子比特生成是概率性的这一难题。后来,该蓝图又有了改进,取消了架构某些部分对有源开关的要求。
综合来看,PsiQuantum、Xanadu和Orca的这些成果解决了一些硬件限制和不完善的问题:即生成大型光子态很困难。它们还利用了光子学的一个特性,即大量光量子比特可以作为光脉冲存在于单根光纤中。
不仅上述全光子公司的架构,而且那些专注于固态系统的硬件制造商的架构也离不开光。
Quandela公司上周公布了一种新型架构,该公司迄今已展示了离散变量光子量子计算的关键硬件进展。在这种架构中,固态自旋充当量子比特,这些量子比特之间的纠缠由光子介导。预印本论文详细分析了自旋-光子混合方法的容错要求,并展示了该技术的乐观前景。
论文链接:
https://arxiv.org/abs/2311.05605
硅中的固态自旋也是量子比特,在硅光子芯片中传播的光脉冲将这些量子比特连接起来。一旦成功克服材料纯度、光学效率等方面的挑战,混合方法有望克服全光子和全物质平台的瓶颈。
超导量子位是量子计算中较为成熟的平台之一,也是谷歌、IBM和AWS等大型科技公司的强大团队所追求的平台。
根据谷歌发表的文章和举办的研讨会,谷歌似乎正在利用其 Transmon量子比特上的vanilla表面码变体来扩大规模。之所以选择vanilla表面码,只是因为使用二维芯片的限制:在二维芯片中,量子比特与其最近的邻居连接得最紧密。影响逻辑性能的主要硬件缺陷已在他们最近的出版物中明确列出,他们声称自己的路线图背后有一本电话簿大小的蓝图,可以克服这些缺陷,到2029年实现一百万物理量子比特的目标。
IBM量子团队很早就开始考虑纠错问题。早在2015年,他们就确定了构建逻辑量子比特所面临的一些高层次挑战,包括确保片上微波和低温系统的完整性,以及开发新的纠错码和控制软件。毋庸置疑,自那时起,硬件已经取得了长足的进步。IBM还开发了针对硬件限制和缺陷的新纠错方法,其形式为重六进制纠错,这为当前IBM在云上的几种设备的布局提供了参考。
现在,IBM的研究人员正在分析LDPC码的性能,并研究在超导硬件上实施LDPC码。
IBM的2022年版路线图
AWS的量子团队似乎在寻求一种不同的容错方法,他们在2020年底发布了一份容错蓝图。他们探索使用超导空腔或谐振器中的“猫态”作为量子比特,因为这些量子比特能够提供固有的保护,抵御某些类型的噪声。在选择量身定制的表面代码版本时,要考虑到剩余的噪声,这样才能在猫态量子比特表现出的偏置噪声下表现得更好。
蓝图介绍了如何在硬件中实现所需操作的若干细节,以及硬件缺陷对逻辑性能的影响。几个月后,AWS的研究人员也提出了另一种蓝图,它利用的GKP量子比特与Xanadu计划使用的类似,但使用的是超导系统而不是光子系统。我们确实应该期待这些蓝图不断发展,提出越来越多具有硬件效率的方案。
中性原子平台有望产生大量量子比特,但可控性略显有限,不过可以通过深思熟虑的蓝图加以克服。
2017年,丹·布朗(Dan Browne)小组提出了中性原子容错蓝图,这是第一批真正意义上的中性原子容错蓝图。该蓝图建议在中性原子比特的二维晶格上使用表面代码。同时还考虑了一些现实世界中的缺陷,如串扰。
利用里德堡原子进行容错量子计算的蓝图
论文链接:
https://journals.aps.org/pra/abstract/10.1103/PhysRevA.96.052320
哈佛大学和Quera公司随后提出的蓝图解决了其他重要的不完美问题,通过新设计的物理操作,将泄漏转化为更多的良性错误,并在多轮纠错中实施。这大大提高了容错率,因为泄漏错误是容错方案的一个特别弱点。
最近,在2023年,来自Quera、芝加哥大学、哈佛大学、加州理工学院和亚利桑那大学的研究人员考虑用LDPC码取代表面码的可能性,结果表明这种方法有可能将容错的硬件要求降低一个数量级。
这一蓝图与上文提到的其他许多蓝图一样,利用了中性原子硬件的新颖之处:即量子比特在陷阱中悬浮,并有一定的长距离连接。
就容错性而言,捕获离子量子计算机具有在捕获器内实现全对全连接的独特优势,但也存在一个缺点,即在单个捕获器内放置太多离子具有挑战性。这种设置为强大的容错路线图提供了肥沃的土壤。
最早的捕获离子容错蓝图发表于2015年,作者现在是Universal Quantum和EleQtron的创始团队成员。该蓝图考虑了表面码架构。这里要解决的主要挑战是,捕获离子模块不可避免地会有数量有限的量子比特,因此蓝图建议将离子从一个模块穿梭到另一个模块,以提供容错所需的大量连接。
2017年,来自斯旺西、马德里、牛津、悉尼、苏黎世、因斯布鲁克、美因茨等学术界的研究人员取得了后续进展,其中一些人现在还是AQT、Q-CTRL、PlanQC和 Quantum Motion的创始人或顾问。这一蓝图引入了新的测量方法,只需使用捕获离子处理器可用的原生门即可发现计算中的错误。
这项工作还研究了一个重要的缺陷,即用于执行双量子比特门的振动模式升温,并建议使用与计算离子一起被捕获的第二种离子来解决这个问题。这项工作还为大规模数值设计模拟提供了详细的误差模型。
论文链接:
https://journals.aps.org/prx/abstract/10.1103/PhysRevX.7.041061
尽管过去几年在FTQC蓝图方面取得了非凡的进展,但这仅仅是个开始。
虽然现有的蓝图确实解决了影响当前和不久将来硬件的一些硬件限制和不完善之处,但在考虑和解决所有不完善之处方面还有很长的路要走。而在这一探索过程中,我们有可能利用每个不同平台的硬件特质来获得越来越好的结果。
此外,迄今为止,这些蓝图仅限于在特定硬件平台上执行量子计算的特定模式,特别是仅限于大型科技公司或资金雄厚的初创公司中的大型团队。更具体地说,在transmon和微波振荡器、只能由全局微波场控制的离子和色心、基于单光子发射器的光子平台等之外,关于新型超导量子比特模式容错的想法几乎没有发表。
从NISQ到FTQC的角度来看,必须提高量子比特的保真度和数量,才能在NISQ体系中获得某种“量子优势”。如果这些量子比特具有良好的保真度,我们就能很快进入FTQC体系。事实上,当量子比特保真度达到实现FTQC的实用阈值(约 99.9%)时,它将不足以实现超过100个量子比特的NISQ。
从NISQ到FTQC的道路是不确定的。我们可能会有一条通过非常高保真量子比特的漫长的NISQ道路,以及另一条用质量较差的量子比特构建的FTQC逻辑量子比特的道路。总而言之,一个要求是能够控制大量量子对象的纠缠
John Preskill对NISQ的定义意味着,它是通往FTQC道路上的一条中间道路:一个接一个。如果这个顺序不是唯一的选择呢?我们已经看到,NISQ和FTQC也可能是两条并行的道路,各自拥有不同的工具。
在NISQ和FTQC之间还有一些中间路径。其中一条来自日本的富士通公司、大阪大学和理化研究所,包括减少构建逻辑量子比特所需的物理量子比特数量、使用经过校正的精确模拟相位旋转门,其中涉及一种低开销校正方案,而不是使用代价高昂的纠错H门和T门组合来构建逻辑量子比特。这样,就能创建有用的早期FTQC设置:只需10,000个物理量子比特就能支持64个逻辑量子比特。
另一个方案由Quantinuum提出,涉及一种轻量级量子纠错方案,增加了极低的辅助量子比特开销。
这些弊端与谨慎乐观之间的矛盾不仅仅是关于NISQ的“争论”,也是基础研究与供应商技术开发及其商业化之间界限模糊的新兴领域的特征。当然,目前对所谓“量子计算商业准备就绪”的谩骂可能会产生严重的适得其反的效果,带来意想不到的负面影响。
总之,量子计算是一项相当长远的探索,政府、政策制定者和投资者尤其应该理解这一点。然而,这并不妨碍企业调查量子计算的下落、了解它、评估早期算法和硬件解决方案,尤其是在模拟量子计算领域。量子计算有一天可能会像生成式人工智能的到来一样,具有颠覆性。
不可否认的是,当前,量子计算技术发展正处于关键时刻。
参考链接:
[1]https://medium.com/xanaduai/from-a-state-of-light-to-state-of-the-art-the-photonic-path-to-millions-of-qubits-c0e08ca1cb21
[2]https://www.ntt-review.jp/archive/ntttechnical.php?contents=ntr202105fa4.html
[3]https://www.qc.design/news/roadmaps#fn2
[4]https://quantumcomputingreport.com/fault-tolerant-quantum-computing-will-deliver-the-transformative-promise-of-quantum-computing-part-ii/
[5]https://www.imd.org/ibyimd/technology/quantum-computing-and-why-you-need-to-care/
[6]https://cacm.acm.org/magazines/2013/10/168172-a-blueprint-for-building-a-quantum-computer/fulltext?mobile=false
[7]https://twitter.com/emulenews/status/1659493212925329408