3.1 量子芯片
3.2 量子计算机硬件
3.3 量子计算机
超导量子计算是基于超导电路的量子计算方案,其核心器件是超导约瑟夫森结。超导量子电路在设计、制备和测量等方面,与现有的集成电路技术具有较高的兼容性,对量子比特的能级与耦合可以实现非常灵活的设计与控制,极具规模化的潜力。
由于近年来的迅速发展,超导量子计算已成为目前最有希望实现通用量子计算的候选方案之一。
如图3.1.1(a),超导电路类似于传统的电子谐振电路,这种谐振电路产生了谐振子的能级。超导约瑟夫森效应使得超导电路在不发生损耗和退相干的情况下产生非线性,非线性导致谐振子的能级间隔不再等同,其中最低的两个能级可以用来实现量子比特的操控,如图3.1.1(b)所示。与经典谐振电路不同的是,超导电路还含有由约瑟夫森结带来的电感Lj这一项,改变这一项和电感L、电容C的比值,物理学家提出了多种基于超导线路的比特形式,如图3.1.1(c)^[6]^。
图3.1.1超导电路构成量子比特^[6]^
超导量子计算的研究始于20世纪90年代,后来在美国耶鲁大学Schoelkopf和Devoret研究组的推动下,将超导比特和微波腔进行耦合,实现了量子比特高保真度的读出和纠缠,加速了超导量子比特的研究。微波腔是一种容纳微波光子的谐振腔,比特的两个能级会对微波腔的光子产生扰动,这一信号的扰动就可以用来实现比特信号的读出。比特和比特之间还可以通过微波腔相连,当两个比特和腔是强耦合状态的时候,两个比特就会通过腔发生相互作用,物理学家通过这一相互作用实现了两比特操作。在2009年,基于超导比特和腔的耦合,实现了两比特的高保真度量子算法,使得超导量子计算得到了世界的广泛关注^[7]^。
从2010年开始,美国企业界开始关注超导量子比特的研究,并加入了研究的大潮中。2014年9月,美国Google公司与美国加州大学圣芭芭拉分校合作研究超导量子比特,使用X-mon形式的超导量子比特,如图3.1.2(a)所示为一个9比特芯片,这个超导芯片的单比特和两比特保真度均可以超过99%,在X-mon结构中,近邻的两个比特(两个十字)可以直接发生相互作用^[8]^。2016年基于这个芯片实现了对氢分子能量的模拟^[9]^。
2017年,Google发布了实现量子计算机对经典计算机的超越——“量子霸权”的发展蓝图^[10]^。2018年年初,其设计了72比特的量子芯片,并着手进行制备和测量,这是向实现量子霸权迈出的第一步。在Google公司加入量子计算大战的同时,美国国际商用机器有限公司(IBM)于2016年5月在云平台上发布了他们的5比特量子芯片,如图3.1.2(b)所示,这种比特形式叫做Transmon,Transmon的单比特保真度可以超过99%,两比特保真度可以超过95%,在Transmon的结构中,比特和比特之间仍然用腔连接。
2017年,IBM制备了20比特的芯片,并展示了用于50比特芯片的测量设备,同时也公布了对BeH2分子能量的模拟^[11]^,不仅如此,IBM还发布了Qiskit的量子软件包,促进了人们通过经典编程语言实现对量子计算机的操控。
(a)Google的九比特芯片(b)IBM的五比特芯片 (c)Rigetti公司的19比特芯片(d)本源量子公司的6比特芯片^[8,11,12]^
除了美国Google公司和IBM公司外,美国Intel公司和荷兰代尔夫特理工大学也合作设计了17比特和49比特超导量子芯片,并在2018年的CES大会上发布,不过具体的性能参数还有待测试;美国初创公司Rigetti发布了19比特超导量子芯片,并演示了无人监督的机器学习算法,使人们见到了利用量子计算机加速机器学习的曙光^[12]^,如图3.1.2(c)所示。美国微软公司开发了Quantum Development Kit量子计算软件包,通过传统的软件产品Visual Studio就可以进行量子程序的编写。
在国内,2017年,中国科学技术大学潘建伟研究组实现了多达十个超导比特的纠缠^[13]^,2018年年初,中科院和阿里云联合发布了11位量子比特芯片,保真度和Google的芯片不相上下,表明了我国在超导量子计算方面也不甘落后,并迎头赶上,同时,合肥本源量子公司也研发出6比特高保真度量子芯片,如图3.1.2(d)所示。南京大学和浙江大学也对超导量子比特进行了卓有成效的研究 ^[14,15]^。在超导量子计算方面,可谓是国内国外百花齐放,百家争鸣。
由于经典计算机主要基于半导体技术,基于半导体开发量子计算也是物理学家研究的重点领域。相比超导量子计算微米级别的比特大小,量子点量子比特所占的空间是纳米级别,类似于大规模集成电路一样,更有希望实现大规模的量子芯片。现在的主要方法是在硅或者砷化镓等半导体材料上制备门控量子点来编码量子比特。编码量子比特的方案多种多样,在半导体系统中主要是通过对电子的电荷或者自旋量子态的控制实现。
基于电荷位置的量子比特如图3.1.3所示,这是中国科学技术大学郭国平研究组利用GaAs/AlGaAs异质结制备的三电荷量子比特的样品,图中Q1、Q2和Q3作为探测器可以探测由U、L电极形成的量子点中电荷的状态,六个圆圈代表六个量子点,每种颜色代表一个电荷量子比特。以两个黄圈为例,当电子处于右边量子点中时,它处于量子比特的基态,代表0;当电子处于左边量子点时,它处于量子比特的激发态,代表1。这三个比特的相互作用可以通过量子点之间的电极调节,因而可以用来形成三比特控制操作^[16]^,不过这种三比特操作的保真度较低,提高保真度需要进一步抑制电荷噪声。
图3.1.3 中国科学技术大学郭国平研究组研制的三电荷量子比特半导体芯片^[16]^
基于自旋的量子比特如图3.1.4(a)所示,这是美国普林斯顿大学Petta研究组基于Si/SiGe异质结制备的两自旋量子比特芯片,图3.1.4(a)中带箭头的圆圈代表不同自旋方向的电子,自旋在磁场下劈裂产生的两个能级可以用于编码量子比特。这两个量子比特之间的耦合可以通过中间的电极M进行控制,实现两比特操作^[17]^。由于对电荷噪声有较高的免疫效果,自旋量子比特的退相干时间非常长,2014年,澳大利亚新南威尔士大学Morello研究组的实验结果显示自旋的退相干时间可以长达30秒,可以用来制备超高保真度的量子比特^[18]^。截止到2018年年初,已经有包括澳大利亚新南威尔士大学Dzurak组、美国普林斯顿大学Petta组和荷兰代尔夫特大学Vandersypen组实现了半导体自旋量子比特的两比特操控 ^[17,19-20]^ ,其单量子比特操控保真度已经可以超过99%,两比特操控保真度可以达到80%左右。2017年,日本Tarucha研究组报道了保真度达到99.9%的单量子比特,证明了自旋量子比特的超高保真度^[21]^。
(a)美国普林斯顿大学Petta研究组(b)澳大利亚新南威尔士大学Dzurak组(c)荷兰代尔夫特理工大学Vandersypen组^[12,14-15]^
与超导量子计算类似,半导体量子计算也正在从科研界转向工业界,2016年,美国芯片巨头Intel公司开始投资代尔夫特理工大学的硅基量子计算研究,目标是在五年内制备出第一个二维表面码结构下的逻辑量子比特;2017年,澳大利亚也组建了硅量子计算公司,目标是五年内制备出第一台10比特硅基量子计算机。
在国内,中国科学技术大学的郭国平研究组在传统的GaAs基量子比特方面积累了成熟的技术,实现了多达3个电荷量子比特的操控和读出,并基于电荷量子比特制备了品质因子更高的杂化量子比特^[16,22-24]^,同时,该组从2016年开启了硅基量子比特计划,计划五年内制备出硅基高保真度的两比特量子逻辑门,实现对国际水平的追赶,并为进一步的超越做准备。
1. 离子阱量子计算
离子阱量子计算在影响范围方面仅次于超导量子计算。早在2003年,基于离子阱就可以演示两比特量子算法^[25]^。离子阱编码量子比特主要是利用真空腔中的电场囚禁少数离子,并通过激光冷却这些囚禁的离子^[26]^。以囚禁$Yb+$为例,图3.1.5(a)是离子阱装置图,20个$Yb+$连成一排,每一个离子在超精细相互作用下产生的两个能级作为量子比特的两个能级,标记为$|↑>$和$|↓>$。图3.1.5(b)表示通过合适的激光可以将离子调节到基态,然后图3.1.5(c)表示可以通过观察荧光来探测比特是否处于$|↑>$。离子阱的读出和初始化效率可以接近100%,这是它超过前两种比特形式的优势。单比特的操控可以通过加入满足比特两个能级差的频率的激光实现,两比特操控可以通过调节离子之间的库伦相互作用实现。
图3.1.5 (a)离子阱装置(b)比特初始化(c)通过荧光探测测量比特状态^[23]^
2016年,美国马里兰大学C. Monroe组基于离子阱制备了五比特可编程量子计算机,其单比特和两比特的操作保真度平均可以达到98%,运行Deutsch–Jozsa算法的保真度可以达到95%^[27]^。他们还进一步将离子阱的五比特量子芯片和IBM的五比特超导芯片在性能方面进行了比较,发现离子阱量子计算的保真度和比特的相干时间更长,而超导芯片的速度更快。在比特扩展方面,两者都有一定的难度,不过在20-100个比特这个数目内,两者现在可能都有一定的突破^[28]^。除了量子计算,离子阱也同样用来进行量子模拟,如图3.1.6所示。2017年,C. Monroe组使用了53个离子实现了多体相互作用相位跃迁的观测,读出效率高达99%,是迄今为止比特数目最多的高读出效率量子模拟器^[29]^。虽然不能单独控制单个比特的操作,但是这也证明了离子阱量子计算的巨大潜力。
图3.1.6 利用53个离子实现多体相互作用观测的量子模拟器示意图^[29]^
对于两比特操控速度问题,这一直是限制离子阱量子计算发展的主要因素。两比特门操作速度最快也需要100 us,远远高于超导量子比特和半导体量子比特的200 ns。2018年,牛津大学的Lucas组通过改进激光脉冲,达到了最快480 ns的操作速度,展现了离子阱量子计算的丰富前景^[30]^。
2015年,马里兰大学和杜克大学联合成立了IonQ量子计算公司,2017年7月,该公司获得两千万美元的融资,计划在2018年将自己的量子计算机推向市场,这是继超导量子计算之后第二个能够面向公众的商用量子计算体系。
国内的离子阱量子计算也于近几年发展起来。清华大学的金奇奂研究组和中国科学技术大学的李传锋、黄运峰研究组已经实现了对一个离子的操控,做了一些量子模拟方面的工作^[31,32]^。清华大学计划在五年内实现单个离子阱中15-20个离子的相干操控,演示量子算法,说明中国也已经加入到了离子阱量子计算的竞赛中。
2.原子量子计算
除了利用离子,较早的方法还包括直接利用原子来进行量子计算。不同于离子,原子不带电,原子之间没有库伦相互作用,因此可以非常紧密地连在一起而不相互影响。原子可以通过磁场或者光场来囚禁,用后者可以形成一维、二维甚至三维的原子阵列,如图3.1.7所示^[33]^。
图3.1.7 用光场囚禁的多原子阵列(a)一维阵列(b)二维阵列(c)三维阵列^[33]^
原子可以通过边带冷却的方式冷却到基态,然后同样可以通过激光对比特进行操控,比特的读出也类似于离子阱的方法。由于没有库伦相互作用,两比特操控在原子中较难实现,它们必须首先被激发到里德堡态,原子的能量升高,波函数展宽,再通过里德堡阻塞机制实现两比特操控。尽管迄今为止,原子量子比特的两比特纠缠的保真度只有75%,还远远落后于离子阱和超导比特,但是2016年一篇论文中,通过理论计算,经过波形修饰的两个原子量子比特的纠缠保真度可以达到99.99%^[34]^。
除了传统的基于量子逻辑门进行量子计算的方法,还有一种实现量子计算的方式是对不同拓扑结构的量子纠缠态进行测量,这两种方法在解决问题的范围上是等价的。在这方面,中国科学技术大学的潘建伟研究组进行了卓有成果的研究,2016年实现了600对量子比特的纠缠,纠缠保真度在79%左右^[35]^,根据下一步计划,将基于成对的量子比特纠缠实现约百个量子比特集体的纠缠,开展基于测量的量子计算方法。
基于原子的量子模拟可能比量子计算更加受到科研界的关注。利用光晶格中的原子,可以研究强关联多体系统中的诸多物理问题,比如玻色子的超流态到Mott绝缘体的相变和费米子的Fermi-Hubbard模型,经典磁性(铁磁、反铁磁和自旋阻挫),拓扑结构或者自旋依赖的能带结构以及BCS-BEC交叉等问题。现在聚焦的主要是量子磁性问题、量子力学中的非平衡演化问题和无序问题^[36]^。在基于原子的量子模拟方面,2017年哈佛大学Lukin组甚至利用51个原子对多体相互作用的动态相变进行了模拟^[37]^。我国在2016年,中国科学技术大学的潘建伟研究组对玻色-爱因斯坦凝聚态的二维自旋-轨道耦合进行了模拟,为研究新奇的量子相打开了大门^[38]^。
3.核自旋量子计算
1997年,斯坦福大学的Chuang等人提出利用核磁共振来进行量子计算的实验^[39]^,之后,基于核自旋的量子计算迅速发展,Grover搜索算法^[40]^和七比特Shor算法^[41]^相继在核自旋上实现。迄今为止,它的单比特和两比特保真度可以分别达到99.97%和99.5%^[42]^。
这种方法一般是利用液体中分子的核自旋进行实验,由于分子内部电子间复杂的排斥作用,不同的核自旋具有不同的共振频率,因而可以被单独操控;不同的核自旋通过电子间接发生相互作用,可以进行两比特操作。下图是一种用于核磁共振实验的分子,里面的两个C原子用13C标记,加上外面5个F原子,它们7个构成实验用的7个比特,表中是比特频率、相干时间和相互作用能。
图3.1.8 用于Shor算法的核磁共振实验的分子结构及相关参数^[41]^
不过这种量子计算方式依赖于分子结构,难以扩展;而且是利用多个分子的集体效应进行操控,初始化比较有难度,该方向还有待进一步的突破。国内从事核自旋量子计算实验的主要有清华大学的龙桂鲁课题组,2017年,该课题组将核自旋量子计算连接到云端,向公众开放使用,该云服务包含四个量子比特,比特保真度超过98%。
4.拓扑量子计算
拓扑量子计算是一种被认为对噪声有极大免疫的量子计算形式,它利用的是一种叫做非阿贝尔任意子的准粒子^[43]^。为了实现量子计算,首先要在某种系统中创造出一系列任意子-反任意子,然后将这些任意子的两种熔接(fusion)结果作为量子比特的两个能级,再利用编织(braiding)进行量子比特的操控,最后通过测量任意子的熔接结果得到比特的末态。这一系列操作对噪声和退相干都有极大地免疫,因为唯一改变量子态的机制就是随机产生的任意子-反任意子对干扰了比特的编织过程,但这种情况在低温下是非常罕见的,噪声和其他量子比特系统常见的电荷等相比,影响是非常小的。
现在国际上进行拓扑量子计算研究的实验组主要是荷兰代尔夫特理工大学的Kouwenhoven研究组和丹麦哥本哈根大学的Marcus研究组。研究组在实验中获得任意子的方法就是得到马约拉纳费米子,当s波超导体和一条具有强烈自旋-轨道耦合效应的半导体纳米线耦合在一起时,在纳米线的两端就可以产生马约拉纳费米子,实验中可以观察到马约拉纳费米子引起的电导尖峰,当这些纳米线可以很好地外延生长成阵列时,就可以进行比特实验。从2012年首次在半导体-超导体异质结中观察到马约拉纳零模的特征开始^[44]^,到2018年观察到量子化的电导平台^[45]^,Kouwenhoven研究组的实验已经让大多数科学家认同了可以在这种体系中产生马约拉纳费米子,不仅如此,进行拓扑量子计算的Al-InSb和Al-InP两种半导体-超导体耦合的纳米线阵列已经先后在实验中实现^[46,47]^。未来将尝试进行编织实验,实现世界上第一个拓扑量子比特。
图3.1.9(a)观察马约拉纳费米子的器件结构(b)实验观察到的量子化电导平台(c)InSb纳米线阵列(d)Al-InSb异质结^[45,46]^
除了利用半导体-超导体异质结可以得到马约拉纳费米子,其他获得的方式还包括量子霍尔效应、分数量子霍尔效应、二维无自旋超导体和超导体上的铁磁原子链。最近在量子反常霍尔绝缘体-超导结构中发现的一维马约拉纳模式也被认为可以用于拓扑量子计算^[48]^,但是基于马约拉纳费米子进行的拓扑量子计算仍然不能满足单比特任意的旋转,它仍然需要和其他形式的量子比特互补或者通过某种方法进行近似的量子操作,不过,对高质量量子比特的追求仍然推动着科学家研究拓扑量子比特。
不同于其他美国巨头公司,微软公司在量子计算方面押注在拓扑量子计算,认为现在量子比特的噪声仍然太大,发明一种保真度更高的量子比特将有助于量子比特的高质量扩展,进而更容易实现量子计算。其与荷兰代尔夫特理工大学、丹麦哥本哈根大学、瑞士苏黎世理工大学、美国加州大学圣芭芭拉分校、普渡大学和马里兰大学在实验和理论上展开了广泛的合作,目标是五年内制备出世界上第一个拓扑量子比特,其拓扑保护的时间可长达一秒。中国在拓扑量子计算方面也开始发力,2017年12月1日,中国科学院拓扑量子计算卓越创新中心在中国科学院大学启动筹建,国科大卡弗里理论科学研究所所长张富春任中心负责人。未来几年可能是中国拓扑量子计算的高速发展期。
从目前量子计算的发展脉络来看,各种体系有先有后,有的量子计算方式现在已经让其他方式望尘莫及;有的量子计算方式还有关键技术亟待突破;也有的量子计算方式正在萌芽之中。就像群雄逐鹿中原,鹿死谁手,尚未可知。有观点认为,未来量子计算机的实现可能是多种途径混合的,比如利用半导体量子比特的长相干时间做量子存储,超导量子比特的高保真操控和快速读出做计算等等;也有观点认为,根据不同的量子计算用途,可能使用不同的量子计算方法,就像CPU更适合任务多而数据少的日常处理,而GPU更适合图像处理这种单一任务但数据量大的处理。无论未来的量子计算发展情况如何,中国在各个量子计算方式上都进行了跟随式研究,这是我国现有的技术发展水平和国家实力的体现。随着国家对相关科研的进一步投入,相信未来在量子计算的实现方面,也可以领先于世界其他国家,实现弯道超车。
由上一章节知道,量子计算机的核心——量子芯片,具有多种不同的呈现形式。绝大多数量子芯片,名副其实地,是一块芯片,由集成在基片表面的电路结构构建出包含各类量子比特的量子电路。但量子芯片不等同于量子计算机,它仅仅是量子计算机中的一个核心结构。
量子计算机,是建立在量子芯片基础上的运算机器。其中最关键的两点是:如何将运算任务转化为对量子芯片中量子比特的控制指令;以及如何从量子芯片上量子比特的量子态中提取出运算结果。除此以外,更加基础地,量子计算机需要提供能维持量子芯片运行的基本环境。以上这些都需要特殊的硬件系统来实现,它们实现了量子计算机软件层到量子计算机芯片层的交互。
量子计算机硬件,主要包含两个部分,一个是量子芯片基础环境,用于提供量子芯片所必需的运行环境;另一个是量子计算机控制系统,用于实现对量子芯片的控制,以完成运算过程并获得运算结果。鉴于目前国际主流量子计算研发团队主要聚焦超导量子芯片与半导体量子芯片这两种体系,同时它们的量子计算机硬件有相当多的共性,因此以下将具体展开介绍这两种体系适用的量子计算机硬件。
超导量子芯片和半导体量子芯片对运行环境的需求类似,最基本的需求均为接近绝对零度的极低温环境。其主要原因在于两种体系的量子比特的能级接近,基本上都在GHz频段。该频段内的热噪声对应的噪声温度约在300 mK以上。为了抑制环境噪声,必须使量子芯片工作在远低于其能级对应的热噪声温度。稀释制冷机能够提供量子芯片所需的工作温度和环境。利用3He/4He混合气实现稀释致冷,稀释制冷机能够将量子芯片冷却到10 mK以下的极低温。在2018年IBM's inaugural Index 开发者大会上,IBM展示的“50位量子计算机原型机”,实际上就是维持50位量子芯片运行的稀释制冷机以及其内部的线路构造。
图3.2.1展示了IBM的稀释制冷机。除了稀释制冷机本身以外,量子计算研究人员需要花费大量精力设计、改造、优化稀释制冷机内部的控制线路与屏蔽装置,以全面地抑制可能造成量子芯片性能下降的噪声因素。其中最主要的三点是热噪声、环境电磁辐射噪声以及控制线路带来的噪声。
抑制热噪声的主要方式,是在稀释制冷机的基础上,为量子芯片设计能迅速带走热量的热沉装置,该装置需要兼容量子芯片的封装。图3.2.2是包含多种热沉结构的量子芯片封装照片,包含半导体量子芯片以及超导量子芯片,其中热沉主要使用了无氧紫铜材料。
图3.2.2 量子芯片的热沉与封装^[49]^
环境电磁辐射噪声是较难控制的环境干扰,其中又可以分为电场辐射以及磁场辐射。电场辐射主要产生来源是稀释制冷机中更高温层的红外辐射,其频段和量子比特的能级相仿,因此会加速量子比特的弛豫过程,从而降低量子芯片的性能。磁场辐射来源复杂,诸如地磁场、带磁元件的剩磁、控制电流引发的磁场等,它们会干扰量子比特的能级,破坏量子芯片的相干时间。可工作于极低温环境的电磁屏蔽技术,一直是伴着量子计算研究人员的需求发展的。图3.2.3展示了伯克利大学Sidiqqi研究组使用的一种红外辐射屏蔽技术。他们设计了用于包裹量子芯片的屏蔽桶,并在桶的内壁使用了一种黑色的特殊涂层,用于增强对红外辐射的吸收。
控制线路携带的噪声,主要也是由热效应引起的。由于量子芯片工作环境的特殊性,从量子计算机控制系统发出的控制信号,要从稀释制冷机接入,经过漫长的低温线路,最后到达量子芯片。而热噪声近似和温度成正比,可想而知,从室温(约300 K)传入的噪声,相比前面所说的量子比特能级对应的噪声温度(月300 mK)相差了近1000倍。这么大的噪声如果直接到达维持在10 mK温度的量子芯片,则会直接破坏量子比特的量子相干性。解决办法是尽可能地抑制从室温传入的信号,使从室温传入的噪声降至和量子芯片的工作温度一个级别。同时,我们还要设法将除了控制信号以外的其他所有频段的无关信号一并滤除,而这,则是通过各类特种低温滤波器实现的。图3.2.4是适用于超导量子芯片的量子芯片支持系统中极低温控制线路的设置。
图 3.2.4 量子芯片支持系统中极低温控制线路的设置^[49]^
量子计算机控制系统提供的是以下两个关键问题的解决方案:如何将运算任务转化为对量子芯片中量子比特的控制指令;以及如何从量子芯片上量子比特的量子态中提取出运算结果。其背后的基础是,如何实施量子逻辑门操作,以及如何实施量子比特读取。
量子逻辑门操作的本质是使一组量子比特经过指定的受控量子演化过程。例如,使得量子比特从基态(或者称$$|0 \rangle$$态)到激发态(或者称$$|1 \rangle$$态),可以借助一个单量子比特
图3.2.6 微波源相位噪声对操作保真度的影响^[50]^
量子态的读取有多种方式,但考虑到需要读取量子芯片中某个或者某组量子比特的量子态,必须要使用一种称之为非破坏性测量的方式,以消除因测量导致的反作用。通常的方法是在量子比特结构旁边额外设计一个对量子态敏感的探测器,间接地通过探测探测器的响应来推测量子比特的量子态。图3.2.7是一个半导体量子芯片以及其探测器结构,该探测器为一个RF探测器,通过该探测器的指定频率的微波信号会随着半导体量子芯片中电子状态变化,进而能从RF探测器的信号中计算出量子比特的量子态变化。捕获RF探测器的信号的装置通常为网络分析仪或者高速数字采集卡。
随着量子芯片集成度的提高,纯粹采用商用仪器搭建量子芯片的控制与读取系统的方法的弊端越来越大。商用仪器成本昂贵,功能冗余,兼容性差,难以集成,并不满足未来量子计算机的发展需要。为量子计算机专门设计并研制适用的量子计算机控制系统,是明智的选择。目前,量子计算机控制系统的研究刚刚起步不久。2016年,苏黎世仪器公司与代尔夫特理工大学研究团队成立的QuTech公司合作,研制了一套可用于7位超导量子芯片工作的集成量子芯片测控系统,包含最高可扩展至64通道的AWG以及同步的高速ADC采集通道。2017年底,是德科技自主研发了一套100通道的量子芯片测控系统,具备百ps级系统同步性能与百ns级量子芯片信号实时处理能力,最高可用于20位超导量子芯片完整运行。2018年,合肥本源量子计算科技有限责任公司也研制出40通道的量子芯片测控系统,可以应用于8位超导量子芯片或者2位半导体量子芯片,这是国内第一套完整的量子计算机控制系统。除此之外,加州大学-圣塔芭芭拉分校、苏黎世理工学院、中国科学技术大学合肥微尺度物质科学国家实验室、Raytheon BBN Technologies公司等都有自主研发的量子计算机控制系统或者模块。为了降低功耗,提高信号质量,代尔夫特理工大学和悉尼大学的研究团队开展了 4K 到 100mK 温度的极低温量子计算机控制系统的研究。
图3.2.9 极低温量子计算机控制系统设计概念图^[51]^
1.量子计算的定位:异构计算
量子计算领域属于一个新兴高速发展的领域,在近二十年间,不论是量子算法的研究,还是量子芯片的研发均取得了巨大的进展。由于量子计算的理论研究有限,目前所说的量子计算机并非是一个可独立完成计算任务的设备,而是一个可以对特定问题有指数级别加速的协处理器。相应的,目前所说的量子计算,如图3.3.1所示,本质上来说是一种异构运算,即在经典计算机执行计算任务的同时,将需要加速的程序在量子芯片上执行。
2.量子程序代码构成:宿主代码+设备代码
因此,量子计算的程序代码实际执行中分为两种,一种是运行在CPU上的宿主代码(Host code),主要用于执行不需要加速的任务,并为需要加速的任务提供需要的数据;一种是运行在量子芯片上的设备代码(Device code),主要用于描述量子线路,控制量子程序在量子芯片上的执行顺序,以及数据的传输。不同类型的代码由于其运行的物理位置不同,编译方式和访问的资源均不同,这跟英伟达公司推出的用GPU解决复杂的计算问题的并行计算架构CUDA非常类似。如表3.3.1所示,以下所提及的量子程序,指的是Device code。
区别 | 量子计算架构 | CUDA并行运算架构 |
---|---|---|
加速的问题 | QAOA,质数分解 | 大规模并行计算 |
描述语言 | C + 量子高级语言 | C/MATLAB + CUDA |
执行设备 | 量子芯片 | GPU |
1.量子高级语言
与经典计算机语言类似,描述量子程序的语言也有高级语言与低级语言之分。量子高级语言,类似于经典计算机语言中C++。在描述量子线路时,不需要考虑量子芯片的底层物理实现,包括可执行量子逻辑门的种类,量子比特的连通性等,这就像一个经典的程序设计师并不需要考虑底层的执行芯片是x86架构,还是RISC架构一样。QPanda,QRunes均属于量子高级语言。量子高级语言主要用于描述量子线路的逻辑门构成,量子程序段之间的执行顺序,如Qif,QWhile等,以及内存之间的通信。
2.量子汇编语言的编译原则
量子高级语言会根据底层芯片的特点,通过量子程序编译器,编译为量子汇编语言。量子程序编译器一般会考虑两个方面:量子芯片可执行的量子逻辑门种类和量子比特的连通性。
3.不可直接执行的量子比特逻辑门拆分
根据量子计算的原理,任意的单量子比特逻辑门可以拆分为绕X轴旋转的量子逻辑门和绕Y轴旋转量子逻辑门的序列;任意的两量子比特逻辑门可以拆分为由CNOT/CZ门和单量子比特逻辑门的序列。量子芯片提供的可直接执行的逻辑门是完备的,即可以表征所有的量子比特逻辑门,因此,如果量子高级语言描述的量子程序中包含了量子芯片不可直接执行的量子逻辑门,量子程序编译器会根据量子芯片提供的量子逻辑门将其转化为可执行量子逻辑门构成的序列。
4.量子比特连通性与不连通门的转换
相同数量的量子比特对于不同的量子芯片结构,可执行两量子比特逻辑门的量子比特对可能完全不同。目前常见的量子芯片结构有链式结构,十字结构,以及全连通结构。对于链式结构,量子比特成链状排布,每个量子比特只能与其相邻的两个量子比特执行两量子比特逻辑门;对于十字结构,量子比特成方阵装排布,每个量子比特能与其相邻的四个量子比特执行两量子比特逻辑门;对于全连通结构,每个量子比特可以与其他所有量子比特执行两量子比特逻辑门。如果量子高级语言描述的量子程序中包含量子芯片不可直接执行的两量子比特逻辑门,量子程序编译器会根据量子芯片的连通性,利用交换门和可执行的两比特门的序列,取代量子程序中的两量子比特逻辑门。
例如图3.3.2,一个三量子比特的链式结构量子芯片,可执行两量子比特逻辑门的量子比特对有{ {1,2},{2,3} },CNOT 1,3 对于此量子芯片是不可执行的逻辑门,可以用SWAP1,2、CNOT2,3、SWAP1,2构成的量子逻辑门序列取代CNOT1,3。
5.量子程序的可执行文件
对于经典程序来说,汇编语言转化为计算机可直接执行二进制文件,即可被经典计算机执行;而量子芯片可直接执行的文件并非一串01组合的二进制文件,而是由测控设备产生的精密的脉冲模拟信号,因此对于量子汇编语言,应该转化成测控设备所能执行文件。此文件中不仅包含着每个量子比特逻辑门的脉冲波形,还需要包含波形的执行顺序,根据波形执行顺序的表征形式不同,量子计算硬件架构可细分为两类。
1)传统量子体系结构
(1)顺序执行的传统量子体系结构的可执行文件:量子程序的整段波形文件
在传统的量子体系结构中,波形执行顺序体现在波形文件中,即编译器将量子汇编程序中的量子比特逻辑门的波形,按照执行顺序拼接为一个整体的波形,并将此波形以二进制文件的形式存放至测控设备的内存中。波形文件本身包含着量子逻辑门的执行顺序,测控设备通过执行波形文件,输出测控波形。此量子体系结构对应的硬件架构为上位机-测控设备-量子芯片架构。
(2)顺序执行的传统量子体系结构优缺点
这种架构的优势在于,测控设备可以从内存中直接读取波形,并施加到量子芯片上,延时极短,执行效率很高,但由于上位机与测控设备之间的通信时间很长,远大于量子比特的退相干时间,即在量子比特完成测量发送至上位机,以及上位机根据测量结果将后续要执行的波形文件发送至测控设备内存的期间,量子比特已经退相干,无法继续执行量子比特逻辑门。因此,这种架构只能运行顺序执行的上位机发送的波形文件,在执行期间不可改变波形的执行顺序,进而无法执行包含基于测量结果的跳转量子程序。
(3)顺序执行的传统量子体系结构的改进
改进方案是将量子程序中可能执行的量子程序段的波形,全部上传至测控设备的内存中,当测量设备得到量子比特的测量结果时,根据测量结果决定接下来输出的波形在内存中的地址,且整个反馈过程的延时远小于量子比特的退相干时间。因此,此方案可以实现基于量子比特测量结果的反馈控制,但此方法需要将可能执行的量子程序段的波形全部存储在测控设备的内存中,随着量子比特数量和量子程序波形长度的增长,该架构对内存的开销极大,可扩展性较低。
2)增强扩展性的新量子体系结构
(1)增强扩展性的新量子体系结构的可执行文件构成:所有逻辑门的波形文件+微处理器程序
为了降低任意波形发生器的内存开销,增加系统的可扩展性,目前已有科研团队提出另一种量子计算机架构:上位机-微处理器-测控设备-量子芯片架构:该架构下,波形执行顺序通过微处理器发送的指令控制,虽然上位机与测控设备之间的通信速度很慢,但FPGA可以与测控设备高速通信,因此采用FPGA搭建的微处理器控制测控设备按顺序执行波形。编译器将量子汇编程序中的每个量子比特逻辑门的波形以二进制文件的形式存放至测控设备的内存中,并生成微处理器可执行的微处理器程序,微处理器通过执行该程序,在特定的时间向测控设备发送控制指令触发对应的测控波形,同时,该微处理器可以接收测控设备发送的量子比特的测量结果,并通过执行微处理器程序,决定测控设备执行的波形。
(2)增强扩展性的新量子体系结构的优缺点
优点是:测控设备无需存放量子程序对应的所有波形,大大减少了内存开销;但缺点在于,通过执行微处理器程序控制测控设备,对微处理器的执行速度要求较高。如果微处理器将微处理器程序转化为测控设备的控制指令的时间大于量子芯片执行波形的时间,则会导致量子芯片在退相干时间内执行的有效的量子比特逻辑门数量降低;另一方面,微处理器向测控设备发送控制指令存在延时,如果顺序执行量子程序,则该延迟无任何影响,但如果要执行基于测量结果跳转的量子程序,则每次反馈控制都会产生两倍延时时间的空泡,影响量子芯片的执行效率。