人工智能技术与咨询
来自《南京邮电大学学报(自然科学版)》,作者郭光灿等
摘要:量子计算机是未来量子技术时代最具颠覆性的技术,文中将以量子计算机的诞生、工作原理和在世界范围内的发展现状为主要阐述内容。目前阶段,量子计算机的研制已从以院校、研究所的基础性研究为主体的阶段,过渡到以公司企业为主要研发驱动力的阶段,并开始逐渐进入到“量子霸权”的发展新阶段,当然,目前的量子计算机还比较初级,离可破解密码的通用量子计算机还有很长的路要走。
关键词:量子计算机;超导量子计算;离子阱;量子比特
量子计算机(Quantum Computer)是一种运行规律遵循量子力学,能够进行高速数学和逻辑运算、存储及处理量子信息的物理装置。量子计算机的概念源于对可逆计算机的研究。量子计算机的基本运行单元是量子比特,能够同时处在多个状态,而不像传统计算机那样只能处于0或1的二进制状态,因而具有传统计算机所无法比拟的强大并行计算能力。量子计算机从概念提出到现在,已经有40多年的发展历史。该方向的研究经历了几个重要的发展阶段,克服了一系列艰巨的理论与实验障碍,从目前来看,量子计算机的实现已经不存在原则上不可逾越的困难。近几年量子计算机的研究更是飞速发展,日新月异,可解决部分实际问题的量子计算机正初见曙光。
电子计算机的出现促使人类社会得以飞速发展,特别是摩尔定律支配着计算机的运算速度每18个月翻一番,这使得电子芯片的尺寸越来越小但是其功能却越来越强大,电脑、手机成为人们无法离开的日常工具。
20世纪80年代,正当计算机迅猛发展之际,物理学家却提出“摩尔定律是否会终结”这个不合时宜的命题,并着手开展研究,最后竟然得出结论:摩尔定律必定会终结。原因是摩尔定律的技术基础是不断提高电子芯片的集成度,即单位芯片面积的晶体管数目。但这个技术受制于两个物理因素,一是芯片集成度越高,由于非可逆门操作时丢失的大量比特所转换的热量将越严重,最终会烧穿电子芯片。二是终极的运算单元是单电子晶体管,单电子的量子效应必然会影响芯片的正常工作。但当时多数学者对物理学家的这个结论不以为然,甚至认为物理学家是杞人忧天。然而物理学家并未停下脚步,继续着手第二个命题的研究:摩尔定律失效后,如何进一步提高处理信息的速度,即什么是后摩尔时代的新技术?于是,诞生了“量子计算机”的设计蓝图。
1982年美国物理学家费曼(R.Feynman)最早提出“量子模拟”的概念[1],即采用按量子力学规律运行的装置来模拟量子体系的演化。随后英国物理学家德意奇(D.Deutsch)提出“量子图灵机”的概念[2],“量子图灵机”可等效为量子电路模型。从此“量子计算机”的研究便在学术界逐渐引起人们的关注。1994年肖尔(P.W.Shor)提出了量子并行算法[3],证明量子计算机可以求解大数分解难题,能够将经典算法中分解因数所需时间随着整数长度指数增长的问题缩减为多项式增长,大大加快大数因子分解的速度,从而攻破广泛使用的RSA公钥密码体系,量子计算机才引起广泛重视。Shor量子并行算法是量子计算领域的里程碑工作。1996年,劳埃德(S.Lloyd)给出能够模拟局域相互作用量子系统演化的通用量子计算机算法[4],使得通用量子计算机可能有效模拟量子系统演化以及求解某些量子系统的基态能量等问题,从而使其未来可能在物理、化学和材料等学科的研究中发挥重要作用。进入21世纪,学术界逐渐取得共识:摩尔定律必定会终结,量子计算是后摩尔时代最有希望的新技术。
量子计算应用了量子世界的特性,如叠加性、非局域性和不可克隆性等,因此天然地具有并行计算的能力,可以将某些在电子计算机上呈指数增长复杂度的问题变为多项式增长复杂度问题,亦即将电子计算机上某些难解的问题在量子计算机上变成易解的问题。量子计算机为人类社会提供具有强大无比运算能力的新型信息处理工具,因此称之为未来的颠覆性技术。做个形象的类比,量子计算机的运算能力与经典电子计算机相比,大致等同于经典电子计算机的运算能力同算盘相比。由此可见,一旦量子计算得到广泛应用,人类社会各个领域都将会发生翻天覆地的变化。
量子计算的运算单元称为量子比特,它是0和1两个状态的叠加。量子叠加态是量子世界独有的特征,因此,量子信息的制备、处理和探测等都必须遵从量子力学的运行规律。量子计算机的工作原理示意图如图1所示。
图1 量子计算机的工作原理
量子计算机与电子计算机一样,用于解决某种数学问题,因此它的输入数据和结果输出都是经典的数据。区别在于处理数据的方法上,两者具有本质的不同。量子计算机将经典数据制备在量子计算机整个系统的初始量子态上,经由一系列幺正操作演化为量子计算系统的末态,对末态实施量子测量,便输出运算结果。图1中虚框内都是按照量子力学规律运行的。图1中的幺正操作(U操作)是信息处理的核心,如何确定U操作呢?首先选择适合于待求解问题的量子算法,然后将该算法按照量子编程的原则转换为控制量子芯片中量子比特的指令程序,从而实现了U操作的功能。量子计算机的实际操作过程如图2所示。
图2 量子计算机的实际操作过程[5]
工作人员在电脑上操作输入问题和初始数据,经由量子软件系统转化为量子算法,随之进行量子编程,将一系列指令发送至量子计算机的控制系统,该系统对量子芯片系统实施对应的操控,操控结束后,量子测量的数据再反馈给量子控制系统,最终返回到工作人员的电脑上。
量子逻辑电路是用于实现U变换的操作,任何复杂的U操作都可以拆解为单量子比特门Ui和双量子比特门Ujk的某种组合(即可拆解定理),Ui和Ujk是最简单的普适逻辑门集。典型的单双比特门如图3所示[5-7]。
图3 单双量子比特门
基于量子图灵机(量子逻辑电路)的量子计算称为标准量子计算,现在还在研究的其他量子计算模型还有:单向量子计算、分布式量子计算、拓扑量子计算和绝热量子计算(量子退火算法)等。
量子计算本质性地利用了量子力学的特性,因此其实际应用的重要障碍是宏观环境不可避免地破坏量子相干性[8](即所谓消相干问题),使量子计算机演变成经典计算机。若不能有效地克服消相干,即使量子芯片(硬件)做成了,量子计算机也无法实际应用。“量子编码”用于克服环境的消相干,它增加信息的冗余度,用若干物理量子比特来编码一个逻辑比特(信息处理的单元)。也已证明,采用起码5个量子比特编码1个逻辑比特,可以纠正消相干引起的所有错误。量子计算机实际应用存在另一类严重的错误,这种错误来源于非理想的量子操作,包括门操作和编码的操作。科学家提出容错编码原理来纠正这类错误,该原理指出,在所有量子操作都可能出错的情况下,仍然能够将整个系统纠正回理想的状态。这涉及到“容错阈值定理”,即只有量子操作的出错率低于某个阈值,才能实现量子容错。容错阈值与量子计算的实际构型有关,在一维或准一维的模型中[5],容错的阈值为10-5,在二维情况(采用表面码来编码比特)中[9],阈值为10-2。经过科学家十多年的努力,现在离子阱和超导系统的单双比特操作精度已经达到这个阈值[10-11]。这个进展极大地刺激了人们对量子计算机研制的热情,量子计算机的实现不再是遥不可及的。量子计算机的研制便逐步走出实验室,成为国际上各大企业追逐的目标。
量子计算机研制涉及以下关键技术部件:(1)核心芯片,包括量子芯片及其制备技术;(2)量子控制,包括量子功能器件、量子计算机控制系统和量子测控技术等;(3)量子软件,包括量子算法、量子开发环境和量子操作系统等;(4)量子云服务,即面向用户的量子计算机云服务平台。
目前量子计算主要分为固态器件和光学路线两大类路线,谷歌、IBM、英特尔这几家大公司采用的“固态器件路线”,霍尼韦尔公司主打离子阱体系,采用的属于“光学路线”。下面分别看看这两大路线各自的优缺点。
目前阶段,光学路线的离子阱体系在操控精度和相干时间上具有较大的优势,具有较高的制备和读出量子比特的效率。此外,虽然该体系需要使用真空,但是不需要大型冷却装置,因而可以在室温下运行,极大地降低了开发、运行成本,因此离子阱量子计算机也是比较有前途的发展方向之一。但是与超导、半导体等固态体系相比,离子阱体系的缺点也比较明显,一是可操控性较差,二是很难与经典计算相兼容。整体来看,目前世界上绝大部分量子计算机采用的都是固态器件的路线,因为在加工制造、与经典计算兼容等方面,固态器件都具有明显的优势。而采用离子阱等光学路线的学派更多是应用在科学研究上。
超导量子计算是目前国际上发展最快最好的一种固态量子计算的实现方法。超导量子电路的能级可以通过外加电磁场进行干预,电路更容易实现定制化开发,而且现在的集成电路工艺已经十分成熟,超导量子电路的可扩展性优势十分明显。但是,超导量子电路也存在一些问题,由于量子体系的不可封闭性,环境噪声、磁通偏置噪声等大量不受控的因素存在,经常会导致量子耗散和相干性退化。此外,超导量子体系工作时对物理环境要求极为苛刻,比如,超低温是超导量子计算实现过程中不可避免的问题。
硅基半导体量子计算机是固态器件路线的另一个重要研究方向,这种量子计算机最大的优势是容易与现有的半导体加工制备技术相兼容,一旦克服了某些关键技术难题,便可在当下十分成熟的微电子工艺平台上开展大规模研发,从而获得迅速的发展。因此,尽管目前阶段半导体量子芯片的量子比特数远低于超导芯片,但未来其发展潜力不可低估。目前,不少国际大公司以及国内本源量子公司也在从事该方向的研究开发。
量子体积(Quantum Volume):一种由IBM公司提出的增长规律类似于摩尔定律的新指标。该指标的主要用途就是用来衡量设计的量子计算机的性能。此外,对一台量子计算机而言,其性能好坏又主要受限于这台量子计算机的量子比特数、测量误差、设备交叉通信、设备连接、电路软件编译效率等因素。因此,量子体积可以理解为这些因素对量子计算机性能影响的综合衡量指标,即多种因素综合考虑后的计算机性能指标。综上所述,对于量子计算机而言,如果所拥有的量子体积越大,其解决复杂问题的能力就越强,相应的其性能就越好。
限制保真度(Typical Limiting Fidelity):保真度的概念在量子信息技术中有着十分重要的地位。由于量子态在量子计算、量子密码中一般充当着信息载体的作用,所以为了衡量量子态前后的差距,保真度成了一个必不可少的衡量工具。对保真度而言,不管其衡量量子态的场景是什么,它都是数值越大越好。而在量子计算中,科学家为了更好地描述量子计算机,则在一般保真度的基础上提出了限制保真度的概念。限制保真度的提出,量化了量子计算机得到正确答案的概率,进一步完善了对量子计算机的描述。
相干时间(Coherence Time):在量子信息中,一般将量子系统相干性受外界因素影响而逐渐消失的过程称之为量子退相干,也即量子系统中量子比特叠加状态的消失过程,而这个过程所持续的时间则称之为相干时间。此外,量子退相干对量子计算有很大的影响,量子退相干会使系统的量子行为转变为经典行为,这个转变过程可能是由系统噪声导致的,也可能是由量子比特的测量导致的。但不管什么原因,该过程都不可避免地使包含在量子系统中的一些信息随着退相干过程而损失掉,进而使量子计算机的计算出现一定程度的偏差。因此,对量子计算机而言,其所有的量子操作都必须在量子退相干现象出现之前完成,也只有这样才能使得量子操作保持在一个较高的保真度。换言之,如果一台量子计算机有着较长的退相干时间,那么其量子操作的时间就越多,相应的处理效率也就越高。
全连接(Full Connectivity):顾名思义就是全部连接,不同于经典系统中经典电子元器件的全部连接,全连接在量子系统中则是指量子系统最小单元的全连接,即量子比特间的全连接。全连接的概念给量子计算机连通性的衡量提供了便利。一般的量子系统,只满足在物理上彼此相邻的量子比特对之间的直接交互,并不满足不相邻量子比特对之间的交互。而对全连接的量子计算机系统而言,它能够满足系统中任意量子比特对之间的交互,且不需要借助某个中间量子比特。这样的优点使得全连接量子计算机能够在有限的退相干时间内执行更多的量子操作,从而实现更具规模的深层次量子线路,以及更加复杂的量子算法。
中间线路测量(Mid-circuit Measurement):测量塌缩理论是量子力学的一个基本定律,即测量一个未知的量子态会使该量子态以一定的概率塌缩到它的某一个本征态。这里的中间线路测量即为测量塌缩定律的一个应用场景,不同于以往的量子态测量,中间线路测量是指在量子计算机量子线路的某个位置选择性地测量量子比特,且测量位置不局限于量子线路的末端。量子计算机的中间线路测量是一项特殊的功能,该功能使得用户可以知道某位置被成功测量的量子比特是由测量而塌缩得到的经典状态(0或1),而没有被测出的量子比特则仍保持其量子状态,这样的特性便于用户决定后续量子线路上的量子操作。此外,这里还需注意一点,对于成功测量而获知其量子信息的量子比特而言,可以通过初始化使其再次整合到量子线路中,从而执行其他更多的量子操作。这样的直接好处就是可以充分利用少量且宝贵的量子比特资源,从而实现更大的量子系统建模。
高分辨率旋转(High-resolution Rotations):为尽可能提高量子计算机量子线路深度范围内的操作效率,霍尼尔系统模型舍弃以往利用多步复合操作来产生相同的旋转角度,转而使用激光门来实现单量子比特门中的旋转。高分辨率旋转方法相比以往产生旋转角度的方法,不论是在操作复杂度还是在旋转角度的精确度方面都有了很大的提高。
目前,量子计算机的研制从以科研院校为主体变为以企业为主体后,发展极其迅速。2016年IBM公布全球首个量子计算机在线平台,搭载5位量子处理器。量子计算机的信息处理能力非常强大,传统计算机到底能在多大程度上逼近量子计算机呢?在不是非常大的逻辑深度下,2018年初创公司合肥本源量子计算科技有限公司推出当时国际最强的64位量子虚拟机,打破了当时采用经典计算机模拟量子计算机的世界纪录。2019年量子计算机研制取得重大进展:年初IBM推出全球首套商用量子计算机,命名为IBMQ SystemOne,这是首台可商用的量子处理器[13],其展示图如图4(a)所示。2019年10月,Google在《自然》上发表了一篇里程碑论文,报道他们研发出了如图4(b)所示的53个量子比特的超导量子芯片,并用该芯片实现了一个量子电路的采样实例,且耗时仅为200 s。而同样的实例在当今最快的经典超级计算机上可能需要运行大约1万年。他们宣称实现了“量子霸权”,即信息处理能力超越了任何最快的经典处理器[14]。
图4 2019年量子计算机的研制取得重要进展
2020年6月和8月,霍尼韦尔与IBM先后分别宣布实现了64位量子体积的量子计算机[15-16],如图5所示。同期,杜克大学和马里兰大学的研究人员首次设计了一个全连接的32-Qubit离子阱量子计算机寄存器,相较于之前公开的霍尼韦尔和IBM最大6-Qubit,该设计提高了5倍以上,也是此前公开最多量子比特完全连接的技术架构[17]。
图5 2020年IBM、霍尼韦尔分别实现量子体积为64的量子计算机
2020年8月,Google量子研究团队在量子计算机上模拟了迄今最大规模的化学反应,通过使用量子设备对分子电子能量进行Hartree-Fock计算,并通过变分量子本征求解来进行纠错处理完善其性能,进而实现对化学过程进行准确的计算预测[18]。该团队涉及的相关工作如图6所示。
图6 2020年Google在量子计算机上模拟化学反应的基础旋转和编译电路[18]
总之,量子计算机的研制发展高潮迭起,且已从高校、研究所为主转变为以公司为主力,从实验室的基础研究迈向企业的实用器件研制阶段。
(1)量子计算机原型机。原型机的比特数较少,信息功能不强,应用有限,但“五脏俱全”,是地地道道的按照量子力学规律运行的量子处理器。IBM发布的Q SystemOne、霍尼韦尔与IBM分别实现的64位量子体积的量子计算机,以及谷歌团队用来模拟化学反应的量子计算机均属于此类原型机。
(2)量子霸权。寻找专用级的芯片,用它来解决特定行业的问题,比如“量子霸权”。量子比特数在50~100左右,其运算能力超过任何经典的电子计算机。但未采用“纠错容错”技术来确保其量子相干性,因此只能处理在其相干时间内能完成的那类问题,故又称为专用量子计算机。这种机器实质是中等规模带噪声量子计算机(Noisy Intermediate-Scale Quantum,NISQ)。应当指出,“量子霸权”实际上是指在某些特定的问题上量子计算机的计算能力超越了任何经典计算机。这些特定问题的计算复杂度经过严格的数学论证,在经典计算机上是指数增长或超指数增长,而在量子计算机上是多项式增长,因此体现了量子计算的优越性。目前采用的特定问题是量子随机线路的问题或玻色取样问题。这些问题仅是Toy(玩具)模型,并未发现它们的实际应用。因此,尽管量子计算机已迈进到“量子霸权”阶段,但在中等规模带噪声量子计算(NISQ)时代面临的核心问题是探索这种专门机的实际用途,并进一步体现量子计算的优越性。
(3)通用量子计算机。这是量子计算机研制的终极目标,用来解决任何可解的问题,可在各个领域获得广泛应用。通用量子计算机的实现必须满足两个基本条件,一是量子比特数要达到几万到几百万量级,二是应采用“纠错容错”技术。鉴于人类对量子世界操控能力还相当不成熟,因此最终研制成功通用量子计算机还有相当长的路要走。
目前,国内外众多量子计算机研发团队在研制量子计算机的道路上都取得了一定的进展,但是依然没有实现通用的量子计算机。主要困难在于:(1)量子计算机是“人造的宏观量子系统”,量子比特的不稳定性会导致输入信息丢失或被置换,从而降低结果的准确性,甚至给出不可靠结果。理论上虽然采用“纠错-容错”技术,原则上可以纠正这种消相干所导致的运算错误,确保计算的可靠性,但“纠错-容错”要求对量子比特操作的保真度极其高,在当下实验中难以达到。(2)要创建有价值的、规模化的量子计算机将需要数十万乃至数百万个量子比特,而人类操控量子世界的能力很有限,无法精准地操控量子器件的量子状态及其演化,特别是含有百万量级量子比特系统,要准确调控其中任意量子比特,或者任意两个量子比特之间的强耦合,目前的技术水平还远远达不到。
因此,量子计算机虽然是量子力学理论预言的产物,原理是正确的,但真正研制成实用的量子计算机还需要一个十分艰难的过程,不是“一朝一夕”可实现的。一旦通用量子计算机得到广泛的实际应用,就可以宣称,人类社会已步入到量子技术时代。
(1)破译密码。当前广泛应用的基于RSA公开密钥算法的密码体系,其安全性来自电子计算机难以快速地完成大数因子分解,即将大数N分为两个素数q和p相乘N=qp,设N=129位。1994年全世界1 600台工作站采用硬件平行运算花了8个月才完成这个分解,但若采用Shor量子算法,在2 000位量子计算机上只要1 s即可以分解成功。随着N增大,电子计算机所需时间将指数上升,而量子计算机上则以多项式上升,所以,一旦量子计算机研制成功,这种RSA密码以及现有的所有公开密码体系都将被攻破。
(2)搜索问题。即从庞大无规律的数字库中找到特定的信息,如从包含有N个条目的电话号码薄中搜索到一个特定的号码,电子计算机需要操作N次才能找到,而量子计算机只需
。看似提速不多,但当N非常大时,效果就非常明显。设N=106,电子计算要操作100万次,而量子计算机只需要1 000次。
(3)新药开发。设想需要设计一种能够识别并抑制HIV病毒活性的RNA分子,通常先要在计算机上模拟,寻找最有效的分子结构。由于分子是由特定原子通过特定化学键联结而成的,原子和化学键遵从量子力学运动规律。在电子计算机上模拟随着原子数目增加,所需运算资源将指数增长,这很难做到;而采用量子计算机模拟则是多项式增长,很容易实现。
(4)量子机器学习。机器学习已经成为当今一大热门技术,目前在语音转换、人脸识别、智能城市等众多领域已建立起成熟的生态。然而机器学习对算力要求极高,目前部分应用已经发展到必须借助大规模的计算机集群才能运行的阶段。本身具备有超越电子计算机能力极限的量子计算机将是下一代机器学习的理想平台。
(5)量子计算与经典计算的联合。不管是最小计算单元还是对多变量的计算处理,量子计算和经典计算都存在十分显著的差异。两种计算方式各有优缺点,比如量子计算的最大优点是算力强大,其利用量子力学的基本原理,具有强大的并行数据处理能力,可以有效解决经典计算所不能解决的复杂问题。与之相对,虽然经典计算实现较为简单,但是其在一些算力需求较大的问题上就显得无能为力。综上,量子计算与经典计算的相互补足,可以有效解决未来实际生活中大部分与算力相关的问题,也正是因为两者的协同关系,有关学者提出了量子-经典联合的概念,并期望利用量子-经典联合的混合方案来解决实际生活中困难的多变量问题。比如利用混合方案在最短时间内获取考虑多方面变量因素的最优物流路线。此外,因为这种方案相较于完全的量子计算来说更容易实现,所以量子计算在实际应用中迎来突破性进展之前,该方案必然是众多学者关注的重点。随着混合方案研究的不断深入,也许在未来的某一天能真正意义上地触及拥有无限算力的量子计算,并用它来简化这个世界的复杂性。
从量子计算机的概念提出到现在,已有40余年。在相当长的时间内,多数人对于能否研制成功量子计算机持严重怀疑的态度。但当科学家经过艰苦努力,在关键的基础问题上取得重大突破之后,近年来量子计算机研究取得了突飞猛进的进展。虽然距实现通用量子计算机还有很长的路要走,但可实际使用的量子处理器不久将可问世。相信今后量子计算机研制成果将不断涌现。我国在量子计算机研制上已经明显落后于美国,迫切需要踏踏实实地奋起直追。合肥本源量子计算科技有限责任公司研制成功6个量子比特的在线量子计算平台,提供全球上网使用,虽然这只是达到IBM公司三、四年前的水平,但毕竟是自主研发的可实际演示使用的第一个量子计算平台。相信随着我国政府的重视、支持,以及国内大量企业在该领域的关注与持续投入,我国的量子计算机的研制将会不断取得突破,紧追国际前沿水平。
我们的服务类型
公开课程
人工智能、大数据、嵌入式
内训课程
普通内训、定制内训
项目咨询
技术路线设计、算法设计与实现(图像处理、自然语言处理、语音识别)