光子盒研究院出品
量子计算机是一种新型的、正在研发中的下一代计算机,量子计算因其强大的并行计算能力,将极有可能推动新一轮的信息科技革命。
目前全球主要科技国均已开展相关技术研发,积极布局和发展量子计算产业。一旦实现大规模量子计算,将对目前的加密体系降维打击,因此对于国家信息安全具有重要战略意义。此外,其下游广泛的应用前景未来很可能会改变银行业、药物研发、物流等行业的规则。
2022年,量子计算的各技术路线未收敛的特点愈发明显,各个路线均有不同程度上的突破,全球量子计算的先驱者们伴随着量子纠错的主趋势,正快速穿越NISQ时代,其中超导量子比特数量有望在新的一年里进入千位量子比特时代。
2022年是“中性原子元年”,无论是在技术还是商业成熟度上,中性原子技术路线都呈现出跨越式的发展。我们很惊讶地发现,过去三年,每年我们都有一个主题,如2019年是“超导元年”,2020年是“离子阱元年”,2021年是“光量子元年”。我们也可以憧憬一下,2023年会是“半导体元年”吗?
然而,技术的快速发展并没有带来企业估值和融资的好消息,2022年全球整体融资增速出现了自2018年以来的首次放缓,市场机构的投资热情和投资信心似乎出现了短暂的休整,这或许不是坏事,因为部分企业包括媒体在这几年所吹起来的泡沫正好需要挤挤。
2022年,各主要科技国不断加强政策支持,加快布局量子计算已经成为过去一年全球前沿科技发展的主旋律,其中以美国和中国两强最为突出,他们之间的竞争与对抗也愈发积累。
尽管我们不能准确预测量子计算在未来某年将会达到多高的量子比特数目、多低的计算误差率以及会有哪些完全颠覆现有认知的应用,但从经典计算机的发展历史中,我们可以清楚地认识到,人类对于算力的需求是永无止境的。因此,我们(ICV)对全球量子计算机产业的未来仍然抱有极大的信心和热情,量子计算机也必定会将人类的新征程推向星辰大海!
2022产业发展透视
1)仍在早期快速发展阶段
回顾2022年,无论是各硬件技术路线还是软件开发与平台的扩充,总体上量子计算行业仍处在早期快速发展的阶段。与硬件各路线百花齐放所不同的是,量子软件开源成为当前产业发展的主要特征之一。目前由于开源软件的开放性和基于社区的共享性使得源码中经常包含很多漏洞,导致缺陷处理的成本大幅增加,阻碍了开源软件的应用推广。因此,当前研究的热点之一是如何有效、准确地发现软件缺陷,并快速修复软件缺陷。
2)产业链逐渐清晰与完善
随着量子计算机各个路线研发工作的逐步推进,整机所需的上游硬件设备与器件选型逐渐清晰,同时,量子计算机的软件系统也在不断跟进,整个产业链上下游各环节的构成逐渐清晰与完善,各环节的参与者也在逐渐增多。
图表 1-1量子计算产业链图谱
3)积极探索下游应用
量子计算基于量子力学的全新计算模式,具有原理上远超经典计算的强大并行计算能力,为人工智能、密码分析、气象预报、资源勘探、药物设计等所需的大规模计算难题提供了解决方案,并可揭示量子相变、高温超导、量子霍尔效应等复杂物理机制。这是量子计算机为我们展现的强大力量,目前受限于真实量子计算机的研发进度,尚无法提供量子计算机的强大算力来实现完整的量子应用,但目前完全可以开发各类垂直行业应用的量子算法,利用数字计算机的算力来验证,从而为未来的实际应用做好积累和铺垫。
4)商业拓展初步探索
2022年,全球范围内的量子计算整机仍然以原型机为主,我们仍处于NISQ时代的早期阶段,量子计算机在实际应用和解决实际问题方面仍然没有太多进展。虽然一项新技术的出现势必引来资本和社会的追捧,泡沫的产生存在一定的合理性,但ICV还是要明确地告诉各方,量子计算机的研发仍处于早期阶段,离实用化还很远,全球范围内可以验证的应用几乎都是在量子计算模拟器上进行的。
ICV预计在2030年之前,人类最有可能实现专用量子计算机,即相干操纵数百个量子比特,应用于组合优化、量子化学、机器学习等特定问题,指导材料设计、药物开发等。
目前全球量子计算机公司包括科研院所在积极探索自己的盈利模式,主要如下:
量子计算机
2022年,量子计算的发展成果呈现多元化特征,量子比特数量、门保真度、量子体积、相干时间等关键指标均突破原有记录,纠错、控制等方面也取得较大进展;ICV对超导、离子阱、光量子、中性原子、硅自旋、拓扑等主要六种技术路线的发展态势进行总结和分析。
目前硬件层面的主要发展方向还是着重于增加量子比特数量、密度和连通性,提高量子比特的质量,包括更好的相干时间和门保真度;以及设计和实施新的架构,包括3D设置和新的组装技术;还有开发可组装和集成大型量子处理器的工业规模制造设施;演示不同量子计算机之间的互联和信息交换等。目前量子计算的多种技术路线边并驾齐驱,各自展示着自己的优势,每条路线都有机会大放异彩。
图表 2-1 量子计算硬件路线图
图表 2-2 量子计算发展阶段
1)超导量子计算
IBM遥遥领先
当前IBM公司引领着全球超导量子计算的技术发展,从当前的发展态势来看,包括Google在内的其他超导量子计算公司短时间内很难超越,IBM也代表了美国在超导量子计算机领域的国际地位。
IBM宣布推出的433量子比特Osprey,除量子比特数量的领先外,其多级布线,为信号路由和设备布局提供了灵活性。这种将读出和控制所需的导线和其他组件分离到各自层上的布线有助于保护脆弱的量子比特免受破坏,帮助处理器纳入更多的量子比特。与芯片Eagle相比,Osprey拥有两个更主要优势:
一个是用柔性带状电缆取代了IBM以前的量子处理器所使用的同轴电缆,同时还加入了集成滤波功能,以减少噪声和提高稳定性。该柔性带状电缆适用于低温环境,电阻和热阻是量身定做的,以帮助微波信号传输,同时不传导可能干扰量子比特的太多热量。这使得芯片的连接数量增加了77%,几乎是之前线缆的两倍,更有助于扩大其量子计算机的规模。
另一个优势是新一代的测控系统,该装置用于发送和接收进出量子处理器的微波信号,较之前一代更为专业,也更适合量子设备,可以产生计算需要的确切信号以及频率。
未来,IBM将专注于以下两个以硬件为中心的大型项目。一个是涉及量子处理器之间的各种类型的通信:实时经典、芯片到芯片量子门(量子多芯片模块)和远程量子通信以量子为中心的超级计算机的基本组成部分;另一个是引入低温 CMOS 测控。
以纠错为核心
2019年,Google首次实现量子优越性所使用的“悬铃木”量子处理器是53个量子比特,2022年已经扩展至72量子比特。与IBM不同,尽管Google量子比特数远不如IBM,但他们更关注量子比特的质量,在量子纠错方面已取得持续进展。
Google采用5码距的表面码在拥有72个transmon量子比特和121个可调谐耦合器的“悬铃木”设备上实现了纠错。更为重要的是,以往的纠错研究随着比特数的增加,错误率会提高,都是“越纠越错”,而这次Google首次实现了“越纠越对”。也就是说,突破了量子纠错的盈亏平衡点,这是量子计算“万里长征”中的重要转折点,为实现通用计算所需的逻辑错误率指出了全新途径。
IBM目前的重六边形二维量子比特阵列,每个量子比特都以某种重复模式连接到芯片表面上的其他附近的量子比特。同时IBM已经开始研究在芯片上的远距离量子比特之间建立连接,以及在这些连接之间进行交叉,这可能为以后实现高效容错代码的机器铺平道路。
总的来说,2022年超导量子计算技术路线的成果主要集中于门速度、门保真度、信号的读娶相干时间以及量子比特数量方面。可以预见,超导路线在IBM的带领下,在未来3年仍将持续领跑其他技术路线。但同时,该技术路线仍有很多困难要克服,更远的将来是否会继续保持领先地位仍未可知。
2)离子阱量子计算
向容错量子计算机迈进
离子阱的一大优势就是天然离子具有全同性,所以它们的相干时间特别长,并且门保真度也非常高。在此基础上,2022年,离子阱量子计算技术路线的主要成果之一为继续提高状态制备和测量(SPAM)保真度。主要成果来源于Quantinuum和IonQ两家量子企业。两家公司将SPAM保真度,分别提高到了99.9904%、99.96%,处于行业的领先水平,这也得益于离子阱相较于其他技术路线在保真度上的天然优势。
更重要的是,霍尼韦尔旗下量子计算公司Quantinuum通过实验首次演示了在两个逻辑量子比特之间的纠缠门,并以完全容错的方式完成实时纠错;首次演示了比相应物理电路具有更高保真度的逻辑电路;这一里程碑式的成就标志着逻辑量子比特性能优于物理量子比特这是迈向容错量子计算机的关键一步。
探索扩展量子比特的方式
提升离子阱互联能力、扩展系统比特数目,是离子阱企业殊途同归的发展方向。
2022年初,IonQ宣布将在新系统中使用钡离子,取代此前的镱离子,因为它更适合光子-离子纠缠。该公司于3月发布其最新一代的量子系统IonQ Forte,包含32个量子比特,拥有能够处理多达40个单独离子量子比特的AOD系统。离子阱体系本身存在扩展难的问题,但随着IonQ提出了多核架构,未来12年离子阱量子计算机也将突破100量子比特。2023年1月,Entangled Networks团队加入IonQ,主要从事下一代网络量子计算机架构和全栈式量子编译器的研究。这项收购支持IonQ通过在多个分布式量子处理器上实现计算来构建大规模量子计算机的努力。
除了量子比特数可以衡量量子计算机的性能外,其他参数,包括相干时间、计算速度、线路深度、错误率、连通性等同样可以很好地表示量子计算机性能的好坏。
离子阱的最大优势可以在QV这个指数上体现出来(离子阱路线目前最大量子体积(QV)达到了8192,也是所有量子计算机路线中最大的)。首先是它的量子比特间的全连接度,其次是它的退相干时间长;这两个优势目前弥补了量子比特数目少的缺陷。
探索多样的技术路线
3)光量子计算
各项指标均有所突破
在量子计算优越性展示方面,2022年6月,光量子计算的代表企业Xanadu,通过使用最新的可编程光量子计算机Borealis,完成高斯玻色采样实验,展示了量子计算优越性。该公司的下一个目标是建立一个能够扩展至100万量子比特的容错和纠错的量子计算机。同样有此目标、且累计融资达6.65亿美元的PsiQuantum公司,2022年在纠错量子计算架构方面取得一定突破,但并未推出任何产品或样机。
在光量子处理器方面,荷兰光量子计算公司QuiX Quantum于2022年3月推出新的20量子模式(qumode)处理器。这是一种基于连续变量(CV)的 光量子处理器,不同于PsiQuantum的路线,后者是采用离散的光子量子比特。
在纠缠光子的数量方面,8月美国马克斯普朗克量子光学研究所(MPQ)成功地以明确的方式有效地纠缠了14个光子,创造了新的世界纪录。
高维光量子计算显露优势
2022年3月,北京大学团队实现了高维(quantum dit,qudit)量子计算芯片,在大规模集成硅基光量子芯片上实现了高维量子位初始化、操作和测量器件的单片集成,通过编程重构该量子处理器,运行了上百万次高保真度量子操作,执行了多种重要的高维量子傅里叶变换类算法,进而证明了高维量子计算具有比二进制量子比特(quantum bit)编码的量子计算更大的计算容量、更高的计算精度和更快的计算速度等显著优势,有望加速构建大尺度光量子计算机。
利用光量子的高维量子态做计算总的来说并不是一项非常新的技术。早在2019年8月,奥地利科学院和维也纳大学的团队(Anton Zeilinger)就首次成功地传送了三维量子态,即高维量子系统可以传输比量子比特更多的信息,这将有助于将量子计算机与量子比特以外的信息容量连接起来。
光量子的高维量子态主要是用光的路径来进行编码,如编码在4条路径上来形成4维量子态;区别于多自由度,比如两个光子同时对其角动量、偏振、路径等同时进行编码。光量子做高维量子计算主要有三方面的优势:
1. 可以减少损耗。在减小或保持损耗的情况下,能够把希尔伯特空间做大;
2. 简化量子门的构建与编译。在量子计算中,要实现一个二维的不可逆门,比如与或非这样经典操作的门,可以把它扩展到三维的量子位,用多余的量子位去存储在计算过程中冗余的信息,让门变成可逆,就可以更好地实现这样一个操作;
3. 一次可以输入更高维度的信息。即在相位估计中,用迭代相位估计的方法,迭代一次可以得出4位,相当于芯片跑一次就可以得出4位的结果。这不仅是在计算过程中将体系变大了,而且每次得到的结果与能输入的结果也都变多了。此外跟经典结合的时候,高维量子计算也会有一些优势。
3)中性原子量子计算
该技术的一个主要优势是可以将多种类型的光镊(其中一些可以快速移动)与它们携带的原子结合起来。该路线目前已经利用光镊技术建立了由200多个中性原子组成的阵列,并且正在迅速结合新的和现有的技术,将这些原子变成完全工作的量子计算机。这种光镊使得该技术比其他平台(如超导体)更加灵活,可以与更大范围的原子互动,而在超导体中,每个量子比特只能与芯片上的直接邻居互动。
2022年“中性原子元年”
2022年,各个路线量子计算机均有一些颇为亮眼的表现,但中性原子路线的量子计算机可以说是2022年度不折不扣的年度黑马,主要成果包括原子比特数的刷新、相干时间和最快双量子比特门速度、大规模原子量子处理器的发布等,无论是在技术还是商业成熟度上,都呈现出跨越式的发展。
2022年年末实现了一些商业化进展:QuEra在AWS上推出256量子比特模拟量子处理器,QuEra的QPU是亚马逊Braket上第一个能够进行“模拟哈密顿量模拟(AHS)”量子计算范式的设备;M Squared公布了英国第一台商用中性原子量子计算机的原型机Maxwell系统。
在专用量子模拟机上优势明显
中性原子路线在过去的一年取得了如此令人骄傲的进展绝非偶然。究其根本原因,主要是量子计算机在其量子比特数量、容错能力、相干时间等各项技术指标尚不具备实现通用量子计算之前,专用量子计算机或将成为量子计算领域近期的主要发展目标。超导等路线作为通用的量子计算路线,可以与中性原子一样去做量子模拟。但中性原子路线比超导路线做量子模拟机的优势就在于原子的天然哈密顿量之间的相互作用。对于同样的问题,处理得到同样的结果,中性原子路线并不需要庞大且昂贵的稀释制冷机来为芯片提供超低温环境,当然光量子计算也有同样的发展优势。
技术原理多领域通用
中性原子技术的应用场景也是多样的,其细分路线中的里德堡原子可以在量子通信中做原子天线、在量子计算领域做芯片,以及在量子精密测量领域也有广泛的应用。除此之外,另一条冷原子路线还可以用来做量子中继以及量子存储器。
综上所述,中性原子以其广泛的应用前景也间接地带动了关于其科研以及商业化的进程,促进了该路线的高速跨越式发展。
4)半导体量子计算
保真度实现突破
目前硅基量子技术的优势在于利用了类似小芯片中集成数十亿个晶体管的半导体纳米结构,因此可以利用当前成熟的半导体技术:得益于硅基自旋量子比特与成熟的纳米加工技术的兼容性,半导体量子计算在过去的一年,容错上进展明显。
走向可扩展性
当前半导体量子芯片的扩展性一直是该路线研究的难点之一。2022年,半导体路线解决了诸多难题,在传输方式、工作温区以及量子比特数量上都取得了很大的阶段性进展。
目前硅基技术的主要挑战是每个量子比特的质量不一样,这也是科学家致力于解决的主要困难。基于当前已实现的技术状况来看,下一步硅半导体量子计算的核心研究任务依旧是如何采用现代半导体工业产线技术实现多量子比特耦合和普适量子逻辑门操控,从而构建大规模可扩展的硅量子芯片,实现可容错的量子计算原型机。
2022年对量子计算来说是一个积极和充满希望的结束。研究电子输运,开发容错的自旋量子比特系统,以及通过使用传统电子技术模拟量子结构,可能成为规避量子力学定律所带来的限制、将量子计算机带出实验室、进入现实世界和解决现实世界的复杂问题的关键。
5)拓扑量子计算
拓扑量子计算作为当下炙手可热的一个技术路线,其优势是硬件层面的纠错。原理比较复杂,简单来说,量子比特是一个单独的个体,与其他量子比特相互作用,是很容易出错的,而且量子比特数越多,越容易出错,出错了信息就可能丢失。但拓扑量子计算机是将几个量子比特组成起来形成一个固定结构,无论受到外界何种干扰,不会造成信息丢失。
对于拓扑量子比特来说,目前研究最多的马约拉纳费米子只是一种预言的费米子,它的反粒子就是它本身。但马约拉纳费米子仍未在自然界中找到,因此科学家们希望制造一种叫做马约拉纳零能模的任意子。与自然存在于真空中的电子或光子等基本粒子不同,马约拉纳任意子需要在混合材料中产生。
持续探索新材料
目前构成拓扑量子计算可能的系统有三大类:分数量子霍尔、拓扑超导体以及拓扑绝缘体。目前科学家所实验出来的代表材料分别为GaAs/AlGaAs、Pb上的Fe原子链以及非阿贝尔Jackiw中的Rebbi(-like)模式(仅提案)。
总的来说,拓扑量子计算的研究目前还停留在基础研究领域,很难甚至不能断定研究的哪个系统,以及该方向是否值得研究。但从长远利益的角度上来看,具有容错特性的拓扑量子计算的研究,应该得到更多鼓励。
技术原理取得突破
拓扑相的特征是基态的长程纠缠,传统实验探针不容易获得。2022年3月,微软Azure Quantum团队提出的“拓扑间隙协议”(TGP)解决了这个困难,作为通过量子输运测量确定拓扑相的标准。如果能够通过该协议,就证明存在拓扑间隙。为此,他们设计了一种设备:拓扑超导线的末端有马约拉纳零能模。线的两端都有一个实数费米子算符。最终,微软团队在这个设备上测量到了超过30μeV的拓扑间隙,消除了产生拓扑量子比特的最大障碍。
这些里程碑式的技术进步,都是未来制造拓扑量子计算机的关键原理步骤。拓扑量子计算非常依赖于任意子的融合和编织(拓扑准粒子的两种原始操作),而拓扑间隙控制着物质的基本状态为这些操作提供的容错能力。因此不论是微软通过马约拉纳零能模和可测量的拓扑间隙创建和维持量子相位的能力,消除了产生拓扑量子比特的最大障碍,还是普林斯顿大学所研究的分数量子霍尔效应。基于拓扑量子比特的量子计算机都将比其他已知量子比特构建的机器表现更为稳定。
核心设备与器件
硬件系统中,mK级稀释制冷机(包含GM脉管预制冷设备)以及微波控制电路系统(包含一体化量子计算测控系统、射频微波线缆、低温电子器件、射频微波仪器仪表等)是超导或半导体量子计算机的核心设备。射频微波线缆(同轴电缆、柔性电缆等)是连接处于低温的量子芯片和处于室温的测控系统之间的桥梁,低温电子器件则又包含低温耦合器、低温低通滤波器、低温隔离器、红外滤波器、低温放大器等细分部件。
对于量子比特控制与测量,根据其技术路线不同,量子计算测控系统主要分为两大类型:一类是光学系统,包括光子源、单光子探测器、激光机等部分。主要负责光量子、离子阱以及中性原子等路线量子计算的测控;另一类是微波控制电路系统,主要包含任意波形发生器、锁相放大器等一系列微波器件。该系统主要负责超导以及半导体量子计算的测控(也负责如离子阱、中性原子、金刚石NV色心等路线的控制)。
1)稀释制冷机
目前,能达到mK极端低温的技术包括在空间科学卫星上应用比较广泛的绝热消磁制冷器,以及在地面实验研究和空间科学卫星上也已经成熟的吸附式制冷机。在这些极端低温技术中,吸附式冷却器可以满足250mk以上温度区的任务要求,但绝热消磁制冷器结合吸附式冷却器或其他预冷方法可以满足250mk以下温度区的要求。
稀释制冷机在不同低温领域均有应用,量子计算机则为其主要应用领域。其中超导量子计算机、半导体量子计算机以及拓扑量子计算机对稀释制冷机有较高的低温要求,且目前稀释制冷机的主要工作温度区间为5mk-4k之间。
目前唯一适合量子计算机的制冷技术
当前其他类型的超低温冷却器可以达到几乎与稀释制冷机一样低的温度,但它们不适合用于量子计算,而是适用于预冷,如绝热退磁冷却器,它是一次性的低温方法,不能提供持久的低温环境,不适合直接用于支持量子计算和量子模拟。
通常情况下,对于拓扑量子计算的研究大多是由稀释制冷机来为其创造接近0K的温度,而更低温则是由绝热核退磁制冷机经过稀释制冷机预冷,来达到凝聚态中的最低温度,这也是将宏观物体冷却到微开尔文(K)的唯一方法。
破除体积限制是当前研发重点
2022年3月,美国丹佛初创公司Maybell Quantum推出了为下一代量子计算机提供动力的低温平台Icebox稀释制冷机。该机器在十分之一的空间中支持的量子比特数量是原来的三倍,且制冷机中有4500条超导柔性线。这是第一个带门的系统,可以在不拆开它的情况下访问量子比特。
IBM于2021年公布了他们的“黄金眼(Goldeneye)项目”,即为量子计算机造一台前所未有的超大稀释制冷机包含1.7立方米的实验容积,可以将比三个家庭厨房冰箱更大的容积冷却到比外太空更冷的温度,而之前的制冷机在0.4-0.7立方米的范围内。后于2022年9月成功地将“黄金眼”冷却到工作温度(~25 mK),并在内部连接了一个量子处理器。
12月,美国能源部费米国家加速器实验室的研究人员宣布他们正在建造Colossus,建成后它将成为迄今为止mK温度下最大、最强的稀释制冷机,黄金眼仅为Colossus容积的三分之一。这台巨型制冷机将能够容纳数百到数千个高度相干的腔和量子比特,为标准商业稀释制冷机在该温度下冷却能力的10倍和体积的15倍。然而,由于其像一个倒置的婚礼蛋糕,最大直径约为2米,包含七个直径、每一直径越来越孝温度越来越低,且需要将这些盘子相互悬挂,形成Colossus的低温结构,这些成为目前Colossus的建造面临的挑战。
中国有望实现技术突破
2023年,对于中国来说,10mK以下的稀释制冷机的禁运将迫使其加速自主研发的进程。中国目前除中科院物理所的姬忠庆团队在无液氦稀释制冷机上率先实现了8mk的温度外;中电科十六所的稀释制冷机有了阶段性的突破,其连续循环工作温度达到9.3mK;中船重工鹏力超低温稀释制冷机目前采用GM制冷机作为预冷冷源,最低温度也达到了12mk(连续运行)。
中国当前稀释制冷机自研道路上的难点主要包括研制稀释制冷机所必需的同位素3He、预冷所需的脉冲管和冷头等预制冷设备严重依赖进口,以及一些低温设备焊接工艺难题。此外还有需克服像冷漏、超漏问题、盘管热交换器和银粉热交换器等一系列技术难题。在核心的稀释制冷机磁共振冷头技术方面,中国有中船重工鹏力、万瑞冷电和氢合科技这几家企业可以做到4k的温度,是否能有效工作不得而知。
市场规模与预测
随着量子计算机的不断发展,日近成熟的超导量子计算机将是推动稀释制冷机市场份额不断增长的原动力。此外,受益于相同量子比特环境,半导体量子计算机将随着超导量子计算机的脚步持续发展,由此带来的增量需求将是未来稀释制冷机行业的一个增长点。
2022年,全球稀释制冷机的市场总规模为1.93亿美元,以不同的温区划分,其中10mK以下温区(超导量子计算机用)的稀释制冷机市场规模占比约为76%,为1.47 亿美元,10mK-100mK温区的稀释制冷机市场规模占比约为22%,为0.42亿美元。
预计到2025年,全球稀释制冷机的市场总规模为2.66亿美元。
图表 3-1全球稀释制冷机市场规模(2022~2030)单位:十亿美元
全球稀释制冷机的主要参与者有:Bluefors(芬兰)、Oxford instruments(英国)、LeidenCryogenics (荷兰)、CryoConcept(法国)、Form Factor(美国)、Maybell Quantum(美国)、QuantumDesign(美国)、Ulvac Cryogenics(日本)、Zero Point Cryogenics(加拿大)。其中Bluefors和Oxfordinstruments两家占据了全球主要的市场份额,FormFactor则是通过收购了JanisULT成了北美很有竞争力的供应商之一。
2)测控系统
在实现实用化量子计算机的道路上,最大的挑战之一是实现百万个量子比特。而这一实现过程,离不开量子计算测控系统。无论量子计算机的体积和形态如何变化,测控系统或者说这一功能组成都会存在。对量子比特实时控制、测量和读取结果、反馈结果这一系列过程的设备简称为量子计算测控系统或量子测控系统。
超导量子比特的门操作和测量可以通过微波和射频脉冲实现。这是超导量子比特与其他物理系统构建量子比特(原子、离子和光子)的不同之处。
如何应对更多量子比特的测控
随着量子比特数量的增加,理论上,测控设备的测控线路数也会相应增加,因此,未来量子测控系统除了提升硬件原有性能之外,还需提升对扩展性的需求。
应对的措施除了对测控芯片的集成度增强以外,还有为对测控系统进行机箱内扩展和机箱间扩展以及提升系统的通道密度等。机箱内扩展是在机箱内插入对应模块性测控板卡;机箱间扩展则是连接多个硬件机箱来扩展,以针对更多的测控需要。当然,这是目前在几百量子比特下的过渡方案,未来在超千比特数下,机箱方案是绝对无法满足要求的,这就要立即开展低温CMOS的控制方案研究。
量子反馈延迟时间需要在100ns量级上
为了实现读出和控制的快速反馈,包括减小测控数据的上传与下载之间的延迟、板卡之间以及设备之间的控制延迟、AWG的输出延迟等,整个量子态的读出操作、读出数据的分析以及生成反馈操作的过程,必须在量子比特退相干之前完成,就目前来看量子反馈延迟时间需要在100ns量级上。
目前,限制测控系统的技术难点对应了DiVincenzo标准,如果未来的发展逻辑是按照可纠错量子计算来部署的,那么目前业内的评判标准是对逻辑比特个数、增加一个量子比特的花费,以及是否能达到低的通道密度这些方面进行考量。随着时间的推移,下图结合了量子比特个数和时间刻度的关系,苏黎世仪器公司给出了里程碑预测。
图表 3-2量子计算微波测控系统发展趋势
在提高同步性、减少噪生和串扰方面仍有提升空间
量子测控面临多通道之间、机箱之间以及控制读取之间的高同步性的需求。高的同步性有利于减小通道间相对相位漂移引起的噪声,减小实验校准复杂度。减小噪声无论是现在和未来都始终需要讨论的焦点之一,因为量子测控系统的随机不可控噪声以及量子比特本身周围环境的噪声是引起退相干和测控操作保真度低下的主要原因。
1. 目前减少噪声一般是从材料、工艺、制冷机内部设计等方面去提升的。例如新材料在transmon类型的量子比特可以将热弛豫退相干时间增加到300us左右;添加Purcell滤波器可以降低Purcell效应对热弛豫退相干时间的影响;在稀释制冷机内部添加红外滤波器等也可以一定程度上提高热弛豫退相干时间。
2. 除了提升硬件系统的性能使得系统具有良好的可扩展性、同步性和低延迟外,设计高效的信号波形算法也是量子测控系统关注的重点。例如目前可以通过优化DAC波形的产生逻辑,来减小控制量子比特的延迟。
3. 改善信号的串扰也是重点工作。串扰的来源是因为控制信号在传输中,受到隔离不好的原因而产生了其他的微小信号。目前主要的避免方式还是通过真空和低温冷却环境来隔离量子比特与其周围的环境。未来将关注不同的隔离方式来避免串扰对测控的影响。
低温芯片化是未来
低温环境能显著降低温度带来的热噪声,能提供量子门操作的保真度。低温化的趋势和芯片化是难以分割的,因为根据现有的量子比特控制方法,是需要大量地从室温到10mK以下量子芯片处的控制线去连接量子测控系统的。
随着量子比特数目的增加,现有的量子比特控制方法必然会带来稀释制冷机的功率与体积的问题,目前的量子计算机需要为每个量子比特配备对应的控制和读出设备,对一百个量子比特以内尚可,但面对成千上万个量子比特(此等规模的量子计算机才被认为可实用化)则将无法以当前方式实现。为了解决这些问题,低温集成控制成为一种解决方案,以读出多路复用的方法,减少稀释制冷机内部所需电子设备和连接线数量。
未来市场的增长趋势明显
2022年,全球量子计算测控系统市场规模为1.60亿美元。预计到2025年,该市场总规模将达到5.45亿美元。
图表 3-3全球量量子计算测控系统市场规模(2022~2030)单位:十亿美元
全球主要供应商有罗德施瓦茨(德国,收购瑞士苏黎世仪器)、是德科技(美)、Qblox(荷兰)、中微达信(中)、本源量子(中)及国盾量子(中)等。其中以罗德施瓦茨以及是德科技占据全球测控系统的绝大部分市场份额。
3)激光系统
为满足量子计算机的特殊需求,所需激光器必须具有高稳定性、高精度的调谐能力以及较低的漂移,以保证量子信息的精确性和可靠性。此外,在量子计算机中,激光器还需要能够生成特定的光学信号,例如单光子脉冲或单模光,用于制造和操纵量子比特。
量子计算机所使用的激光器主要是以固体(晶体和玻璃)激光器或者半导体激光器阵列作为抽运源,掺入金属离子的晶体或玻璃基质作为增益介质的全固态激光器。从某种意义上来讲,全固态激光器整合了半导体激光器和固体激光器两者的优点,具有体积孝质量轻、寿命长、性能稳定、可靠性高、光束质量好、转换效率高等一系列优势,发展前景巨大。且它可通过变频获得宽波段可见、红外、紫外甚至深紫外激光输出,采用电激励的方式也便于模块化。
在各类全固态激光器中(圆棒激光器、板条激光器),ICV比较感兴趣的是光纤激光器,它是利用光纤作为激光介质的激光器,主要用于光量子、中性原子以及离子阱量子计算中。
4)光子源及其他光学组件
在纠缠光子源方面,偏振纠缠的光子产生大都以自发参量下转换过程(Spontaneous Parametric Down Conversion,简称 SPDC)为主。它是光与晶体的一类典型的非线性过程,这种过程可以简单描述为一束激光(在非线性光学中称为泵浦光)入射到晶体上。当满足一定条件时,入射光子会转化成两个在频率、偏振、传播路径和时间上都具有强烈关联的光子。
目前纠缠光子源面临的两个问题是退相干现象和亮度低。其中退相干现象指的是所产生光子的各个叠加部分的相对相位发生改变,从而使得各个部分的相干叠加性被破坏,影响纠缠作用。在实验中与退相干相关的一个指标是对比度,对比度是衡量光子之间纠缠作用强弱的物理量,退相干越严重,对比度越低。
在单光子源方面,长久以来,其纯度问题一度困扰科学家们很长的时间,基本的方案都是通过准相干技术,例如双光子产生(SPDC)、单晶材料生成单光子源等。通过这些技术,能够生成具有较高纯度的单光子源,从而满足量子信息科学研究的需求。
2022年,中国科学技术大学提出了目前最好的方案。课题组利用里德堡原子之间的相互作用实现了超级原子量子态的高精度激发与操控,并基于此制备了纯度达99.95%和全同度达99.94%的高质量单光子源。随后将其应用到基于KLM方案的光量子逻辑门实验中,并成功地将真值表保真度提高到了99.84%。利用该高保真度的光量子逻辑门,最后通过量子层析及贝尔不等式等方式进行了量子纠缠测量,其纠缠门保真度达到了99.69%。
5)光子源及其他光学组件
在纠缠光子源方面,偏振纠缠的光子产生大都以自发参量下转换过程(Spontaneous Parametric Down Conversion,简称 SPDC)为主。它是光与晶体的一类典型的非线性过程,这种过程可以简单描述为一束激光(在非线性光学中称为泵浦光)入射到晶体上。当满足一定条件时,入射光子会转化成两个在频率、偏振、传播路径和时间上都具有强烈关联的光子。
目前纠缠光子源面临的两个问题是退相干现象和亮度低。其中退相干现象指的是所产生光子的各个叠加部分的相对相位发生改变,从而使得各个部分的相干叠加性被破坏,影响纠缠作用。在实验中与退相干相关的一个指标是对比度,对比度是衡量光子之间纠缠作用强弱的物理量,退相干越严重,对比度越低。
在单光子源方面,长久以来,其纯度问题一度困扰科学家们很长的时间,基本的方案都是通过准相干技术,例如双光子产生(SPDC)、单晶材料生成单光子源等。通过这些技术,能够生成具有较高纯度的单光子源,从而满足量子信息科学研究的需求。
2022年,中国科学技术大学提出了目前最好的方案。课题组利用里德堡原子之间的相互作用实现了超级原子量子态的高精度激发与操控,并基于此制备了纯度达99.95%和全同度达99.94%的高质量单光子源。随后将其应用到基于KLM方案的光量子逻辑门实验中,并成功地将真值表保真度提高到了99.84%。利用该高保真度的光量子逻辑门,最后通过量子层析及贝尔不等式等方式进行了量子纠缠测量,其纠缠门保真度达到了99.69%。
软件、算法、云平台
经典计算机的生态圈是围绕着操作系统而存在的,量子计算机也不例外。同样,编译软件、软件开发工具和行业应用算法与软件也一样不可或缺。
从各国量子计算机系统软件、量子算法和量子软件技术发展水平上来看,2022年美国无论是在量子算法,软件及开发工具包还是在纠错软件等方面,都处于世界领先地位;中国、加拿大、日本和法国等国紧随其后,在各个细分领域都有各自突出的表现;其他国家如德国、西班牙及英国等也对部分细分领域做出了重要的贡献。
系统软件进展主要体现在纠错当中,编译软件则是多数硬件厂商均发布了自己的量子计算编程语言,而对于软件开发工作来说,未来的社区开源发展将成为一种主流的模式,对于应用软件的研发来说,主要还是不断拓展与下游行业的联系,深度挖掘下游不同领域的企业需求,找准量子并行运算的优势。
量子云平台大体可分为三种应用场景:在量子研究中,科学家可以使用量子云平台来测试量子信息理论,进行试验,比较架构等;在量子教学中,教师可以使用量子云平台帮助学生更好地理解量子力学,以及实现和测试量子算法等;在量子开发中,程序员可以使用量子云平台创建量子教学游戏,向人们介绍量子概念,又或者开发量子编程软件,丰富量子开发工具。
1)量子软件
目前软件层面的主要发展方向还是着重于开发具有自动调度功能的量子编译器,以及演示多个硬件控制后端的分布式编程能力;还有标准化跨多种技术工作的中间表示框架;此外还包括开发基于API和编译器指令(pragma)的混合经典/量子软件堆栈等。
本节主要列举了2022年度,系统软件、编译软件、软件开发工具、应用软件等重要细分领域的技术进展,并对未来整体软件可能的一些发展趋势做了小结。
图表 4-1 量子计算发展阶段
2)量子算法
随着量子计算机应用前景越来越广阔,HHL、QAOA、QSVM、VQE等算法如雨后春笋般被提出,不断优化,硬件端的量子比特数也在逐年提高,投身算法研发的企业也络绎不绝。
并且随着量子技术研究人员的增多,量子算法的开发速度大大提升,目前的量子算法已经结合到医药、化学、金融、交通等多个实际行业的应用当中。由于通用量子计算机的实现还有较长的路要走,解决特定问题的专用量子计算机有望在未来510年陆续推出,专用量子计算机将更多与特定行业解决特定问题相关联,而量子算法就是量子计算机与某一特定研究领域问题之间的媒介。
3)量子计算云平台
云计算是一种按使用量付费的模式,这种模式提供可用的、便捷的、按需的网络访问,进入可配置的计算资源共享池(资源包括网络、服务器、存储、应用软件、服务),这些资源能够被快速提供,但只需投入很少的管理工作,或与服务供应商进行很少的交互。
量子云平台好比连接量子计算机和用户之间的桥梁用户使用经典计算机访问量子云,然后经由量子云将处理过的指令传输到后端,后端完成量子计算后经由量子云把结果输送给用户。通过量子云平台,即使不能实地使用量子计算机,用户也可以完成所需的量子计算。
图表 4-2量子计算云平台服务类型
图表 4-7全球量子计算云平台分布图
国家政策
通过对目前全球主要量子参与国家在资本投入、研究成果、研究员数量、专利数量、论文发表数量和量子公司数量6个维度进行评价,可以看出,目前美国和中国最为领先,其次是欧洲各国如德国法国等。此外加拿大与澳大利亚在专利申请数量上也位于前列。
报告梳理了2022年全球量子计算主要参与国所发布的相关政策,并从资金支持类政策、国际合作类政策以及战略制定类政策三方面分别进行分析。
图表 5-1 全球量子主要参与者评价体系
2022年,美国、中国、英国、澳大利亚、德国、欧盟等国家/地区均发布了量子科技规划或法案,以支持量子科技发展。
投融资
量子计算作为前沿科技和未来产业的重点,属于颠覆性技术,投资机构的投资热情来自2方面,国家支持与国际竞争,以及技术突破所带来的预期。
ICV统计了2018年至2022年全球主要量子计算企业的融资情况,涉及14个国家,67家量子计算企业,136笔融资。具体如下:
图表 6-1 : 融资金额&增长率(2018-2022)(单位:百万美元)
2022年,量子计算产业共融资20.45亿美元,与2021年总融资额相比增长有所放缓,但从整体来看,量子计算行业投融资长期仍保持增长态势。对于投融资市场增速放缓,更为细节的表现如下。
图表 6-2 : 国家及各融资轮次、数量、金额(2028-2022)(单位:轮次、笔数、百万美元)
供应商评价
CTF模型是帮助公众了解前沿技术领域及对应公司的发展情况,前沿科技具有技术路线未收敛、技术发展存在高度不确定性、商业化推进处于早期等诸多特点,随着技术的不断发展,对公司的评价需要一套合理的模型,对特定时期前沿技术供应商的综合评估形成“共识”。
CTF模型由4层不同大小的扇形区域纵深呈现,以及3维坐标共同构成。横向坐标 Maturity of Technology (技术层面,即供应商的技术、研发、团队等)、侧向坐标 Commercialization of Technology (商业层面,即供应商的营收、客户、用例等)以及隐含变量 Implicit Variable(底蕴层面,即供应商长期经营所积淀的能够助推企业发展的要素)。CTF模型根据供应商在不同维度的综合表现,将其划分如下四个扇面中:Pilot(领航者)、Overtaker(超越者)、Explorer(探索者)和Chance-seeker(寻机者)。
由于新兴技术处在高速成长期,也存在高度不确定性,因此,各细分领域的CTF图需要不定期进行更新。
图表 7-1 全球量子量子整机供应商评价体系
产业分析与预测
ICV仍然认为2027年会是全行业一个重要的时间点,在这之前的五年,我们仍处于NISQ时代的关键阶段,一方面各大公司将较大概率完成各自的技术路线图目标,通用量子计算机将在比特数与保真度等方面将实现技术突破,但通用量子计算机仍只能用来满足科研实验室以及极少部分云平台的商业需求,缓慢而稳定地增长;另一方面,专用量子计算机既有可能实现部分应用,即相干操纵数百个量子比特,应用于组合优化、量子化学、机器学习等特定问题,指导材料设计、药物开发等。
我们(ICV)对2021年的报告预测数进行了修订,我们预计,到2027年,全球量子计算行业的产业规模将达到87亿美元;而到了2028年将快速增长到319亿美元,行业进入爆发增长期,到2030年整体产业规模预计将达到1197亿美元,行业应用实现较大规模的推广,整机采购、云服务与应用解决方案将获得庞大的采购量;在随后的5到10年内,该产业规模将增长到2035年的6070亿美元。全球量子计算产业复合年均增长率(CAGR)自2022至2027年为31.28%,而2027至2035年增长为44.5%,向万亿级产业规模迈进。
图表 8-1 全球量量子计算产业规模(2022~2035)单位:十亿美元
图表 8-2 全球量量子计算各地区产业规模(2022&2030)单位:%
图表 8-3 全球量子计算上游产业规模(2022&2030)单位:十亿美元
图表 8-4 全球量子计算下游应用规模(2022~2030)单位:十亿美元
产业展望
未来量子计算的发展将集中在三个方面:
继续提升量子计算性能。为了实现容错量子计算,首要考虑的就是如何高精度地扩展量子计算系统规模。在实现量子比特扩展的时候,比特的数量和质量都极其重要,需要每个环节(量子态的制备、操控和测量)都要保持高精度、低噪声,并且随着量子比特数目的增加,噪声和串扰等因素带来的错误也随之增加,这对量子体系的设计、加工和调控带来了巨大的挑战,仍需大量科学和工程的协同努力。
实现专用量子模拟机并继续探索量子计算应用。即相干操纵数百个量子比特,应用于组合优化、量子化学、机器学习等特定问题,指导材料设计、药物开发等。从当前到2030年,全球的主要研究任务应当集中于此。
实现可编程通用量子计算机,即相干操纵至少数百万个量子比特,能在经典密码破解、大数据搜索、人工智能等方面发挥巨大作用。由于量子比特容易受到环境噪声的影响而出错,对于规模化的量子比特系统,通过量子纠错来保证整个系统的正确运行是必然要求,也是一段时间内面临的主要挑战。由于技术上的难度,何时实现通用量子计算机尚不明确,国际学术界一般认为还需要15年甚至更长时间。