谷歌认为,它已找到了一条开发容错量子计算机的出路。
谷歌的研究人员今天在《自然》杂志上发表了量子计算方面的最新成果,展示了其新的 Sycamore 处理器如何在短短 200 秒内运行需要全球最庞大的超级计算机耗时 10000 年才能完成的测试计算。
关于该论文的消息上个月通过美国宇航局(NASA)的官网泄露出去,详细说明了谷歌实现了所谓的“量子霸权”(quantum supremacy):当量子计算机能够解决经典计算机耗费太长时间以至于不能被认为切合实际的问题时,才称得上实现量子霸权。
IBM 本周对谷歌声称已实现量子霸权的说法提出了质疑,因为这家广告巨头的研究人员未能为经典计算机上的“大量磁盘存储”及其他资产作出说明。IBM 的研究人员声称,谷歌应对的挑战只需要一台经典计算机耗时两天半,而不是 10000 年。
IBM 的研究人员写道:“由于 John Preskill 在 2012 年提出的‘量子霸权’这个术语其初衷是描述量子计算机在哪个点可以完成传统计算机无法完成的工作,因此尚未达到这个阈值。”
IBM 最近宣布会在 10 月中旬推出其 53 个量子比特的系统,因此,它很在乎自己不被谷歌的研究超越。
IBM 的人员说:“谷歌的实验充分演示了基于超导的量子计算方面取得的进展,展示了 53 个量子比特设备上最前沿的门保真度,但不应该将此视为证明量子计算机‘显著优于’经典计算机。”
不过,谷歌首席执行官 Sundar Pichai 仍声称谷歌的工作是“量子计算方面的重大突破,即量子霸权。”
面对外头的极客,Pichai 将其描述为‘这是我们一直在等待的‘hello world’时刻——迄今为止使量子计算成为现实的道路上取得的最有意义的里程碑。”
量子计算的魅力在于,由于名为叠加的量子特性,量子比特可以同时为 0 和1。
因此,量子计算机上的 1 和 0 可以随时处于四种可能的状态,而不是传统计算机中只有 1 和0。拥有 54 个量子比特的量子计算机可能有 254 个计算状态;由于它可以呈指数级扩展,因此计算机有望在一天内解决复杂得多的挑战。
谷歌的研究人员在该公司的 AI 博客上更详细地介绍了 Sycamore 处理器。
标题《使用可编程超导处理器的量子霸权》,整篇博文云头条现编译如下:
作者:谷歌 AI 量子团队的量子硬件首席科学家 John Martinis 和量子计算理论首席科学家 Sergio Boixo
30 多年来,物理学家们一直在谈论量子计算的功能,但一直存在这个问题:量子计算技术果真会做有用的工作吗?值得投入吗?对于如此大规模的项目,制定决定性的短期目标以证明设计是否朝着正确的方向发展是良好的工程做法。因此,我们设计了一个实验,这是帮助回答这些问题的重要里程碑。该实验被称为量子霸权实验,为我们的团队克服量子系统工程中固有的许多技术挑战,制造出可编程且功能强大的计算机提供了方向。为了测试整个系统的性能,我们选择了一个敏感的计算基准:如果计算机的单单一个部件不够好,该基准将无法通过。
为了执行基准测试,我们开发了一种名为“Sycamore”的 54 个量子比特的新处理器,该处理器由快速高保真的量子逻辑门组成。我们的机器在 200 秒内完成了目标计算;从实验中的测量结果来看,我们确定世界上最快的超级计算机需要 10000 年才能获得类似的输出。
左图:艺术家描绘的安装在低温恒温器中的 Sycamore 处理器。(谷歌常驻 AI 量子艺术家 Forest Stearns)右图:Sycamore 处理器照片。(研究科学家兼量子硬件生产负责人 Erik Lucero)
实验
为了解该基准的工作原理,设想一下热情的量子计算新手造访我们的实验室,以便在我们的新处理器上运行量子算法。他们可以利用基本门操作的小词典编写算法。由于每个门都有出错概率,我们的客人希望将自己限制在一个适度的顺序,总共约 1000 个门。假设这些程序员之前毫无经验,他们可能创建的东西实际上如同随机序列的门,这好比是量子计算机的“hello world”程序。由于随机电路中没有经典算法可以利用的结构,模拟这类量子电路通常需要经典超级计算机完成大量的工作。
量子计算机上每次运行随机量子电路都会生成一个比特串,比如 0000101。由于量子干涉,我们多次重复实验时,一些比特串比其他比特串极容易出现。然而,随着量子比特的数量(宽度)和门周期的数量(深度)增加,在经典计算机上为随机量子电路找到最可能的比特变得异常困难。
在实验中,我们先使用 12 个到 53 个量子比特运行随机简化电路,保持电路深度不变。我们使用经典模拟检查量子计算机的性能,并与理论模型进行了比较。一旦我们证实了系统正常工作,就运行有 53 个量子比特的随机硬件电路,且深度不断增加,直至达到经典模拟变得不可行的地步。
估算量子霸权电路的验证时间,这个值与 Schrödinger-Feynman 算法的量子比特数和周期数有关。红星表示实验电路的估计验证时间
该结果是针对内容扩展的 Church-Turing 论题的第一个实验挑战;该论题声称,经典计算机可以有效地实现任何“合理的”计算模型。借助无法在经典计算机上合理模拟的第一个量子计算,我们开辟了有待探索的计算新领域。
Sycamore 处理器
量子霸权实验是在一个名为“Sycamore”的完全可编程的 54 个量子比特处理器上进行的。该处理器由二维网格组成,其中每个量子比特与另外四个量子比特相连。因而,芯片有足够的连接性,以至于量子比特状态在整个处理器当中快速交互,从而使总体状态不可能用经典计算机有效地模拟。
量子霸权实验的成功归功于我们改进了双量子比特门,经过增强的并行机制可靠地获得了创记录的性能,即使同时操作多个门。我们使用一种新型的控制旋钮实现了这个性能,该控制旋钮能够关闭相邻量子比特之间的交互,这大大减少了这种多连接量子比特系统中的错误。通过优化芯片设计以降低串扰,并开发避免量子比特缺陷的新控制校准,我们进一步提升了性能。
我们在二维正方形网格中设计了电路,每个量子比特与另外四个量子比特相连。该架构还向前兼容,以便实现量子纠错机制。我们将 54 个量子比特的 Sycamore 处理器视为一系列功能更强大的量子处理器中的第一个。
热图显示了同时操作的所有量子比特的单量子比特(e1;十字块)和双量子比特(e2;条块)Pauli 误差。所示布局遵循处理器上量子比特的分布。
测试量子物理
为了确保量子计算机在未来的实用性,我们还需要验证没有来自量子力学的根本障碍。物理界有着通过实验检验理论极限的悠久历史,因为人们开始探索具有大不相同的物理参数的新体系时,常常会出现新现象。之前的实验表明,量子力学在状态空间维数达到约 1000 个的情况下仍能按预期工作。在这里,我们将该测试扩大到 10 万亿个大小,结果发现一切仍按预期工作。我们还通过测量双量子比特门的误差来测试基本量子理论,结果发现这准确预测了标准量子霸权电路的基准测试结果。这表明没有意外的物理因素会降低我们量子计算机的性能。因此,我们的实验提供了证据,表明更复杂的量子计算机应该按照理论运行,并使我们对继续扩大规模充满信心。
应用领域
Sycamore 量子计算机是完全可编程的,可以运行通用量子算法。自从春季获得量子霸权成果以来,我们的团队一直致力于研究近期的应用,包括量子物理模拟和量子化学,以及应用于生成式机器学习及其他领域。
下一步是什么?
我们的团队在将来有两个主要目标,都旨在为量子计算寻找有价值的应用。首先,将来我们将向合作者和学术研究人员以及有兴趣开发算法,为如今的 NISQ 处理器寻找应用领域的公司提供我们的量子霸权级处理器。富有创造力的研究人员是创新的最重要资源——鉴于我们有了一种新的计算资源,我们希望更多的研究人员能够通过尝试发明有用的技术而进入这一领域。
其次,我们往团队和技术投入资源,尽快研制出容错量子计算机。这种设备有望应用于众多重要领域。比如说,我们可以设想量子计算有助于设计新材料——用于汽车和飞机的轻型电池、可以更高效地生产肥料的新型催化剂(如今这个过程产生的碳排放量占全球的2% 以上)以及更有效的药物。获得必要的计算能力仍需要做多年艰苦的工程和科学工作。但是我们现在清楚地看到了一条道路,我们渴望向前迈进。
博客原文:https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html
谷歌 CEO 桑德尔·皮查伊(Sundar Pichai)今日发表题为“我们的量子计算里程碑意味着什么”的文章。对谷歌在量子计算领域取得的重大突破进行了回顾,并对其应用前景进行了展望。(由新浪科技翻译)
以下为皮查伊文章全文:
今天,《自然》杂志刊登了创刊 150 周年的纪念文章,阐述了谷歌研究团队在量子计算领域取得的重大突破,即“量子优越性”(quantum supremacy)。这是一个专业术语,意思是我们已经开始使用量子计算机来解决问题,这些问题要使用传统计算机来解决,所需要的时间是不可想象的。显然,这一刻代表着我们努力利用量子力学原理解决计算问题取得一个重大里程碑。
在对未来感到兴奋的同时,我们也为取得这一成就所经历的旅程感到卑微。我们铭记着伟大的“诺贝尔奖”获得者理查德·费曼(Richard Feynman)留给我们的智慧:“如果认为你已经了解了量子力学,那么你就不了解量子力学。”
在许多方面,建造一台量子计算机的努力,是关于我们对周围世界还不了解的所有事情的一堂大课。虽然宇宙从根本上是在量子水平上运行的,但人类并不是以这样方式在体验。事实上,量子力学的许多原理直接与我们对自然的表面观察相矛盾。但是,量子力学的本性具有极大的计算潜力。
传统计算机中的一个比特(bit)可以将信息存储为 0 或1,而一个量子比特(qubit)可以同时为 0 和1,这是一种被称为“叠置”(superposition)的属性。所以如果你有两个量子比特,就会有四种可能的状态,你可以把它们叠加在一起。显然,这种计算状态会呈“指数级”增长。对于 333 个量子比特,会有2^333,或 1.7x10^100 个计算状态。你可以把它叠加在一起,允许量子计算机同时探索一个问题可能拥有的许多解决方案。
在我们扩大计算可能性时,我们开启了新的计算。为了证明其优越性,我们的量子计算机在短短 200 秒内成功地完成了一道测试计算。而对于传统的最强大的超级计算机,需要数千年才能完成。我们之所以能够达到如此快的速度,就是因为我们对量子比特的控制质量。虽然量子计算机很容易出错,但我们的实验表明, 它在大规模计算时较少犯错的能力足以超越传统计算机。
对于我们这些从事科学技术工作的人来说,这是我们一直在等待的“你好,世界”(hello world)时刻,也是迄今为止量子计算成为现实所取得的最有意义的里程碑。但是,从今天的实验室实验到明天的实际应用,我们还有很长的路要走;我们需要很多年才能实现更广泛的现实应用。
对于今天的这则新闻(量子计算机所取得的突破),我们可以想象当初建造第一枚火箭成功脱离地球引力到达太空边缘。当时,一些人问道:为什么要进入太空,我们又得到任何有用的东西?但这对科学来说是一个重大的创举,因为它允许人类设想一个完全不同的旅行,到月球,到火星,到超越我们自己的星系。它向我们展示了什么是可能的,并将看似不可能的事情推上日程。
这就是这个里程碑对量子计算世界的意义:一个可能的时刻。
对于谷歌来说,我们取得这一突破花费了 13 年的时间。2006 年,谷歌科学家哈特穆特·奈文(Hartmut Neven)开始探索量子计算如何帮助我们加快机器学习。这项工作促成了我们的 Google AI 量子团队的成立,2014 年,加州大学圣巴巴拉分校的约翰·马丁尼斯(John Martinis)和他的团队加入到我们建造量子计算机的努力中。两年后,塞尔吉奥·博伊索(Sergio Boixo)发表了一篇论文,重点阐述了我们在明确定义的量子优越性计算任务上的努力。如今,该团队已经建立了世界上第一个量子系统,超过了传统超级计算机在这种特定计算中的能力。
我们之所以做出这些早期的押注,是因为我们相信,现在也依然相信,量子计算可以加速解决一些世界上最紧迫的问题,从气候变化到疾病。鉴于自然界的量子力学行为,量子计算为我们在分子水平上理解和模拟自然界提供了最好的机会。有了这一突破,我们现在离应用量子计算更近了一步。例如,设计更高效的电池,使用更少的能源制造肥料,并找出哪些分子可以制造有效的药物。
当然,这些应用还需要很多年的时间来探索。但我们承诺,将建造这样的量子计算机,为这些发现提供动力。我们一直很清楚,这将是一场“马拉松”行动,而不是短暂的冲刺。要构建一些还没有被证明的东西,本来就没有剧本。如果团队需要一个部件,他们必须要自己发明并构建它。如果它不起作用(经常会不起作用),他们不得不重新设计和重新建造它。
一个转折点出现在 2018 年 10 月,当时南加州野火肆虐。我收到一条消息,出于足够的谨慎,他们需要关闭圣巴巴拉(Santa Barbara)实验室几天。我不知道的是,当时团队正经历一个进展缓慢的时期。但几天的强制休假帮助团队重新设置并以不同的方式思考问题,几个月后,他们取得了这一突破。
与任何先进技术一样,量子计算也有自己的问题。在思考这些问题时,我们遵循了一系列人工智能原则,这些原则是我们开发的,以帮助指导负责任的先进技术创新。例如,多年来,安全社区在谷歌的支持下,一直致力于“后量子密码学”(post-quantum cryptography)。我们乐观地认为,在未来的加密问题上,我们走在了前面。
我们将继续公布研究成果,并使用我们的开源框架 Cirq 帮助更广泛的社区开发量子加密算法。我们感谢美国国家科学基金会(NSF)对我们研究人员的支持,以及与美国国家航空航天局 Ames 研究中心和橡树岭国家实验室(Oak Ridge National Laboratory)的密切合作。与互联网和机器学习一样,政府对基础研究的支持对于长期的科技成就仍至关重要。
量子计算对谷歌和世界未来的影响巨大,我对此感到兴奋。这种乐观情绪部分来自技术本身的属性,这可以追溯到 20 世纪 50 年代的“巨型”计算机,到今天我们利用人工智能来服务人们的日常生活。
量子计算将是对我们在传统计算机上所做的工作的极大补充。在许多方面,量子将给计算带来完整的循环,赋予我们另一种方式使用通用语言,了解世界和人类,而不仅仅在 1 和 0 中,而是在所有状态中:美丽,复杂,并且具有无限的可能性。
博客原文:https://blog.google/perspectives/sundar-pichai/what-our-quantum-computing-milestone-means