量子计算机笔记

量子计算

为什么重要

量子计算机不仅是一个运行速度更快的计算机,有改变世界底层的潜力。

现代社会的信任、秩序都是在用经典计算的算力保护着的。算力,简单地说,它代表了计算机解决一个问题的时间长短。

例如发现对方一个导弹飞过来,我们需要立即知道它的落点。A计算机1分钟算出来,B计算机1秒钟算出来,显然,B计算机的算力比A计算机强。

加密系统是现代经济和社会良好运作的基石。加密方法,不是不可破解,而是破解时间太长而让破解没有意义。这是基于经典计算的算力极限。

目前人工智能在很多方面做得都不够好,是因为算力不足,得出结果很慢,意义不大。

如果说电子计算机的算力是“汽油”级别的话,那么量子计算机的算力就是“核能”级别的。现在在经典算力基础上搭建起来的平衡体系就有可能会会崩溃

计算机的本质

电子计算机用电子学原理进行计算,量子计算机用量子力学原理进行计算。

计算就是输入+运算+输出,对应物理系统里的初态、演化和末态

利用某个系统进行计算,就要看有没有能力,利用相应的规则,去操控这个物理系统的初态、演化和末态。

我们对电磁规律的掌控能力非常强,所以几乎所有的计算问题都可以被投射到电子计算机的物理系统里,而且处理速度还非常快。这也是为什么电子计算机如此成功。因为我们对电磁规律的掌控已经几乎到了极限,这也代表了电子计算机的能力遭遇了瓶颈。

在突破电子计算机瓶颈这个问题上,不只有量子计算,还有生物计算、类脑计算等。但从我们对规则的掌握程度来看,量子计算不仅在数学和物理学原理上已经得到了严格证明,近年已经实现了小规模的实验样机。各大科技公司纷纷投入这个领域,也说明了对量子计算的信心。

信息容量大

计算都是在对比特进行处理

量子比特和经典比特不同的是,这个量子比特可以既是0又是1,两种状态同时存在。这种状态在量子力学中称作“量子叠加态”。我们在量子计算中就是在操控量子比特,量子计算过程就是量子比特叠加态的演化过程。

计算机的信息容量

小孩子数苹果,他有10根手指,所以只能区分10个不同的信息,它能代表信息的容量就是10。也就是说双手这个“计算机”里,只能一次做10以内的计算。

信息容量直接决定着一个计算系统的能力。就比如说,乘法口诀是10以内的乘法运算,可如果大于10了怎么办?那就只能是先计算个位,再计算十位、百位,最后再把中间结果整合起来才行。这个速度明显就慢了。有些学生练习速算,他们就会给自己的乘法运算增加信息容量。他们记住的乘法口诀不是10以内的,而是19乘19的。这样就大大提高了他们的计算速度。

经典比特提升信息容量空间有瓶颈

最简单的方法就是增加比特数量。要想增加比特数量,最简单直接的方法就是追加物理资源,用资源交换计算能力,长期以来,我们增加比特数的方法是把元器件越做越小,这样就能用更小的芯片里实现更多的比特数。今天,这种低垂的果实已经基本上摘完了,经典的元器件的体积越来越小,已经小到了物理极限。

还有一个办法,就是在现有的物理系统上做优化。物理系统具体表示信息的方式我们叫做编码方式,同一个物理系统可以应用不同的编码方式。上面的例子,其实就是对编码做了优化。但是增加的程度也是有限的。只要这个计算机是经典系统,如果它有x个比特,那么它信息容量的上限就是2的x次方。

量子比特带来的新编码方式才是增加信息容量的原因

不要觉得量子比特的元器件,一定可以要比经典比特做得更小,是靠着增加比特密度的方式来提高信息容量的。其实实现量子比特的物理元器件甚至可能会特别大。

量子比特增加信息容量的方法是它带来了新的编码方式。我们通过利用量子叠加态的特性,能够实现更加高级的编码方式。你可以把这种编码方式叫做“量子二进制编码”。

由于量子叠加性,每一个量子比特同一时刻可以处在两个不同的状态上,关键就在于这个“同时”。也就是说一个量子比特同时可以当做两个经典比特来用。

什么意思呢?还是用数水果来举例子。如果只有一份苹果,那么不论是普通手指还是量子手指都没有差别。但是如果是还有一份是梨那就完全不同了,普通手指只能表示其中一份,如果还想表示另外一份,那么他就需要再叫一个人过来,用那个人的手指表示梨。这个时候量子手指就能显出它的优势来了,因为量子手指有叠加状态,所以通过编码后,它就可以同时既即表示苹果的个数,又同时表示梨的个数。

最厉害的是,就算是有1024种水果摆在面前,10根量子手指就能同时表示。经典手指的话就必须找1024个人一起来才能完整表示了。n个量子比特的信息容量比n个经典比特大了2的n次方倍。整个宇宙原子的数量是2的300次方这么多,如果用量子比特表示的话,只需要300个就能数清宇宙所有的原子了。

在这一点上,量子比特对经典比特简直就是降维打击。

并行演化,运算速度快

经典计算通过增加资源来提高信息处理速度

最直接的方法是提高处理器的核心速度,也就是单位时间里面能处理信息的数量。

单个处理器要想信息处理得更快,就需要把元器件做小,而现在已经到了物理瓶颈。iPhone不选用更高主频的处理器也是这个原因。不说别的,处理器芯片上元器件密度太高的话能耗和散热问题就解决不了。
那怎么办呢?只能是追加物理资源,1个处理器不行那就2个,2个不够那就增加到4个、8个……。所以现在,电脑手机的处理器都是多核心的,一个芯片上集成了好多个信息处理模块。近几年流行起来的GPU也是同样的思路。现在一些高端GPU里面,能有4096个核心。

增加资源的方式提高信息处理速度不可持续

比如说,你要走一个迷宫,要尽可能快地找到出口。

前面说到的提高处理器速度的方式,就是让你能够跑得更快了,但是你还是需要一个岔路一个岔路地试。如果遇到了死胡同还要退回来重新走。
用多核的方式呢,就相当于不只是你一个人在走迷宫了,而是你找了几个小伙伴一起走。然后安排好,这个人走这边那个人走那边。对应到计算机里面就是更多核心要消耗更多的物理资源。

而且这样的方法提升的速度也非常有限。第一个分岔路,你需要2个人,如果分岔路后面又有分岔路呢,就需要4个人了,然后是8个人、16个人。这可是指数增长,不需要多,在后面第30个路口的时候,需要的人数就已经赶上全中国的人口了。

量子计算可以让叠加状态同时演化,减少物理资源

还是上面走迷宫的例子,这次走迷宫的不是普通人了,而是孙悟空。他根本不需要其他小伙伴,他自己就是许多分身的叠加。走迷宫的时候,他只需要一施法,变出分身来,每条岔路都派一个分身去。这样所有的分岔路就能够被同时探索到,只需要走一次,就可以找到迷宫的出口。这就是量子叠加态的并行演化。

经典计算遇到的问题,就是指数增长的问题。经典计算机,资源只能线性增加,追不上问题的增长速度。

而量子计算,随着量子比特数量的增大,信息容量也会指数增长,并且并行演化。这就能轻松地追上问题难度的指数增长了。这就是量子叠加和并行演化,为量子计算带来的巨大优势。

量子纠缠可以让量子比特中的数据保持同步

两个量子比特建立纠缠,就相当于两个人结拜了,发誓要同生共死。在结拜之前,他们2个人可以有4种状态,分别是“生生”“生死”“死生”“死死”。但是两个人结拜了,也就是说建立了量子纠缠,那么他们两个人的状态就从原来的4种,变成了2种,不管两个人距离有多远,一个人发生意外死了,另一个人也会马上死掉。

这非常有用,因为这其实是用纠缠的方式保证了2个量子比特的同步性。不只2个可以,3个、4个、更多也都可以。在计算机里保持两个数据同步是非常重要的。要想在经典计算机里面实现同步也不简单,需要额外消耗计算资源。

刘备、关羽、张飞结拜,发誓说“不求同年同月同日生,但求同年同月同日死”。假如你是曹操,你说:“好,我就让你们实现自己的诺言。我要派刺客刺杀你们,而且不论你们在那座城里面,我都要让你们同时死掉。”你可以想想看,要想做到这一点是不是会特别难。如果只是刺杀他们还相对比较容易,但是要保证同时杀死他们,那肯定要做出很多额外的部署,花费更多的资源才有可能做到。

但是有了量子纠缠就不同了,那曹操就省事了,他只需要刺杀一个人就行了,只要杀死一个,量子力学必然保证另外两个同时也死掉。

再举一个真实计算的例子,假如一台计算机中有10个数,现在要把每个数都+1。经典计算机必须分别找到存储这10个数的比特,第1个数执行+1,再找到第2个数执行+1,再找到第3个数,以此类推。操作10次,最后完成任务。那量子计算机呢不用这么麻烦,只要把存储着10个数字的量子比特制备成纠缠态。这样,不管量子比特们分散在存储器的哪个位置,只需要对某一个数执行了+1,其它9个就自动更新了。

所以说,量子纠缠也为信息处理能力的提高提供了巨大潜力。

输入:把问题映射到量子系统

将问题输入到计算系统里时,数据和操作需要分别存放

“2+4”的运算一共需要3个比特,一共可以表示8种状态,000,001,010……其中2和4在8个状态中占了2个。当把“2+4”这个问题输入到系统时,就会把代表2的010和代表4的100叠加起来,让它们的概率都是50%,剩下的6种状态的概率全部都是0。这个时候数据区的存储就成功了。

接下来是指令区了。其实把“+”号存在指令区这一步很简单,把“+”翻译成二进制编码存起来就行,和数据区没有本质区别。

其实所有的运算操作都是通过改变硬件的物理状态来实现的,比如改变电流或者电压。这种条件的改变,是可以让量子比特的叠加态发生演化的。比如说,我们做了实验,发现只要把电流设置到特定值就能完成加法。就比如说把电流设置到0.1A吧,系统就能让2和4是50%的叠加态发生演化,最后变成了代表6的状态概率是100%,其他状态的概率都是0的这样一种叠加态。这就相当于完成了2+4=6的运算了。这是加法运算,我们还可以做更多的实验,假如说发现了把电流设置成0.3A,就可以让2和4各50%的叠加态演化成8,那么这个条件对应的就是乘法了。

最后把找到的这些硬件条件编成一个对照表。001对应的是把电流设置成0.1A,这样就可以完成加法运算。010对应的是把电流设置成0.3A,这样就可以完成乘法运算。每次进行运算的时候,去看一下指令区,就能知道是要做什么运算了。

量子计算可以让操作指令也处于叠加态

基本操作,都是固定在硬件里面的,要想解决更复杂的问题那还需要把这些基本操作根据需要组合起来,也就是需要找到相应的算法。在这里我主要是想带你看一下,量子算法是怎么发挥出量子计算的强大能力的。

假如你是三国的刘备,刚刚三顾茅庐,诸葛亮把自己的战略思想给你讲了一遍,如果那个时候你有一台量子计算机的话,你就可以把诸葛亮的战略变成算法输入到系统里,最后看看结果是不是真的和他说的一样。

在量子计算机里,你可以把自己和曹操、孙权的胜败概率叠加起来。诸葛亮的战略可以拆分成一些基本操作,比如联孙抗曹,占领荆州,进军蜀地等等,每一个基本操作都会影响到你们三个叠加态的演化。等最后这个战略执行完了一遍,你只需要看看自己的叠加态,是不是胜利的概率更大就可以了。

这里你只考虑了联孙抗曹,占领荆州,进军蜀地这些事情做了会怎么样。
那么其他情况?万一不进军蜀地更容易成功呢?所以,你就可以用另外3个量子比特分别控制这3个操作,这3个量子比特也处于做和不做的叠加态。这样,通过量子计算之后的结果就可以考虑得更加全面了,不只把联孙抗曹的情况考虑了,把不和孙权联盟的情况也考虑了。

这要是经典计算机,只能是一种可能一种可能地去算,有多少种可能就要算多少次,可是在量子计算机里面所有可能性都一起考虑到了。

这还没有完啊。你可能会想了,虽然战略设想是这样的,但是曹操和孙权可都是大活人,他们可不一定按照你的剧本行动。所以,还可以把他们的决策也用量子比特表示出来。你想和孙权联盟,那么孙权会不会不想联盟呢?你也可以用叠加态把孙权愿不愿意表示出来。你占领荆州,曹操会不会攻打你呢?同样也可以用一个叠加态表示出来。这样所有的情况就可以一起进行演化了。

这个时候,你就相当于用量子计算实现了一个人工智能算法。你只需要把初始情况设置好,这套算法就能自动推演下去,最后给出一个可靠的战略方法。

输出:如何把计算结果正确读取出来?

读取量子比特会引起坍缩造成信息丢失

我们可以把读取量子计算结果的过程看成是两个计算机进行联机的过程。其中一个计算机是我们的大脑,另一个当然就是量子计算机了。读取结果的过程,其实就是把量子计算机的计算结果,通过接口输入到我们大脑里面。
但是这两台计算机底层的物理系统是不同的,我们大脑获取信息遵循的是经典物理规则,就像我们的眼耳口鼻,看到听到闻到的都是经典信息,可量子计算机是遵循量子力学规则。

三国的例子,你辛辛苦苦用量子计算机把最后结果计算出来了,是70%胜和30%败的叠加态。结果你一读取,和大脑这个经典计算机一联机,魔法褪去叠加态消失,变成了要么100%胜利要么100%失败,最有用的信息消失了。

用统计的方式可以反推出量子比特的叠加态

具体的解决方法并不复杂。其实就是多计算几次,最后把所有的结果统计一下,统计的结果就是叠加态下各种情况的概率。

假如刘备做了9000次计算,一看统计结果,魏国胜了3000次,蜀国胜了3000次,吴国胜了3000次,各占三分之一,确实实现了三分天下。那刘备就可以放心地给诸葛亮发了offer了。也就是说,我们最终把叠加态的概率信息给读取出来了。

量子计算机读取一个计算结果要这么麻烦,那么它真的能提高计算速度吗?

前面三国的例子,如果是经典计算机的话,可能算一遍就可以了,量子计算机却需要算9000遍,这不是更快了,而是更慢了。

没错,如果是简单问题的话,量子计算机还真的没有什么优势。为了能把计算结果读取出来,虽然增加了计算的次数,但是这个计算次数是和问题的规模没有直接的关系。

三国的例子,只考虑了3个国家,如果是增加到30个国家,经典计算机要算2的30次方,等于10亿个可能性,但量子计算机还是只要运算和测量9000次就够了。那300个国家呢?经典计算机要算2的300次方这样一个天文数字的次数,但量子计算机还是只要运算测量9000次就够了,或者稍微增加一点来确保结果精度。

所以只要问题的规模够大,那么量子计算机是会非常有价值的。其实,这也是现在我们普遍对量子计算机的定位,就是要用它来解决那些用经典计算机无法解决的规模很大的问题。

通过增加冗余的方式可以提高量子计算的可靠性

还有个问题也需要特别关注,那就是你怎么知道你的计算结果是对的呢?

可以完全隔绝经典世界和量子世界的东西是不存在的。任何一个微小的外部扰动都可能让它坍缩。如果真的发生坍缩了,计算结果肯定是不正确的。

最直接的方法是提高硬件系统的可靠性了,比如用更好的结构设计,用更高纯度的材料或是更精确的加工技术等等。

还有就是增加冗余信息,原来是1个比特表示1份信息,现在就用3个比特表示1个信息。这样就算是某一个比特受到噪声影响出错了也不怕。

比特数量:量子计算机比强大

一个合适的物理系统对于实现计算机是至关重要的

英国数学家、发明家查尔斯·巴贝奇着手设计了一个由齿轮结构组成的,可以自动完成计算的机器。总结巴贝奇的失败经验,发现设计方案非常巧妙,但是选错了实现计算机的物理系统。要想让他的设计正常运行,就必须让组成机器的几万个齿轮拥有非常高的精度。其中核心零件的误差不能超过千分之一英寸。当时的金属加工技术根本无法实现。

而我们现在之所以能够享受计算机的便利,那是因为发现了晶体管和集成电路这样的通用性好、可控性高、运行速度快的物理系统。

现在有许多实现量子计算机的方案

现在来看,有很多不同的物理系统都有可能实现量子计算。
IBM选择的是超导电路方案,可以发挥他们在微加工方面的技术积累。选择同样路线的还有Google。

微软公司选择拓扑量子计算方案。他们相信拓扑器件依靠自身的结构特点,能够抵御外界噪声。

在实验室里面还有用光子实现的方案、用离子阱实现的方案等等。

因为,现在对于这些物理系统的研究还在发展阶段,最终到底哪一个方案会胜出,我们现在还无法预测。

现在所有的实现方案都有自己的优势和劣势

在2000年的时候,IBM的首席科学家迪文森佐(Divincenzo)博士就提出了评估量子计算机硬件的5个指标:量子比特的初始化能力、扩展能力、可控能力、稳定能力和被测量能力。

对于经典计算机来说,通上电源就相当于开机了,但是对于一台量子计算机来说并没有那么简单。初始化对于经典计算机来说很容易,只要断电就可以了。但是对于量子是计算机却是困难的。实现量子比特的物理系统那都是超导啊、光子这些物理器件,要同时操作一群光子让它们同时处于一种状态是不是挺难的。

先来看扩展能力。在挑选物理系统的时候,就需要考虑好,哪些系统更容易增加量子比特的数量。

就比如说离子阱方案,它是用一个离子来实现一个量子比特的,那么就需要把离子控制在一个固定位置上。如果只是控制一两个的话,还比较容易,但是要一下子控制很多的话就会很有挑战了。

但是如果换成超导的方式,扩展量子比特就比较容易。超导的实现方式,和我们现在的电路非常相似,只要增加更多的电路单元就够了。

还有可控能力也一样。我们前面介绍过,每个复杂的计算问题,都是由更基础的操作组成的。如果一个计算机的基础操作设计的不够通用,或者这些基本操作在控制量子比特时不够精确。那么问题一变得复杂,它就应付不来了。

接下来还有稳定性。前面讲了,用超导的方式的话,比离子阱方式的扩展能力强,那么为什么不直接选用超导方式,放弃离子阱方式呢?
这是因为超导的稳定性比离子阱方案差很多。就不说别的了,要想达到超导环境,那是需要在接近绝对0度的环境下进行操作的。环境噪声大一点,超导量子比特就会坍缩失效。可如果选用离子阱就没有这个问题了,离子在常温下也能被正常操控。

量子比特数量是评价量子计算机的核心指标

在上面说的那5个指标上努力,最终目的就是希望可以尽可能多地增加量子比特的数量。所以,量子比特数量这个核心指标,就是上面说的那5个指标的综合体现了。

算法:让量子计算机做最擅长的事

算力=物理系统+算法

在1994年的时候,就已经有人找到了可以破解密码的量子算法了,这个算法也叫做肖尔算法。这个算法在数学上严格证明了,用量子计算机破解RSA协议密码的速度是能达到指数级别的提高。

从1994年到现在,除了肖尔算法之外,虽然也有一些其他量子算法出现,但是再也没有第二个算法可以表现的像它一样优秀了。

比如说,格罗弗(Lov Grover)提出了一个在无序的数据库中进行搜索的量子算法。它带来的提升只能达到平方根的程度。这个提升就比指数级加速差很多了。

量子算法需要充分发挥量子计算机的并行性

为什么有的可以达到指数级提升,有的却不行呢?

那是因为算法必须能够和物理系统匹配才行。如果匹配的程度不高,那么就无法把物理系统的所有能力都发挥出来。

一个量子算法要想真的发挥出比经典算法更强的性能,那么它一定要充分利用量子物理系统的优势才行,也就是要并行处理信息。如果一个算法没能发挥这个优势,那么即便把这个算法强行运行在量子计算机上,它也不会带来运算速度的大幅提升。

但是,并不是所有的问题都可以被并行解决的。比如计算“1000+10+10+10”等于多少,可以把这个问题拆分成两个小问题,分别是前面两个数相加1000+10,和后面两个数相加10+10。这两个小问题是可以同时计算的,这样就可以节省时间。但并不是所有问题都可以这样。比如,1000÷10÷10÷10,最后答案等于1。这个问题就不能简单地拆分成两个小问题,先计算“1000÷10”、“10÷10”,然后再合并。这样的计算结果是100,肯定不对。

肖尔算法可以这么有效呢?那是因为肖尔算法利用了数学规律,把分解大数问题转化成了另外一个等价的问题。而这个等价的问题,它的核心环节可以充分利用量子计算机的并行计算优势。

其实刚才讲到的除法运算,如果经过数学处理的话也是可以并行解决的。并不是所有的问题都能简单地找到并行处理的方法。这就是开发量子算法困难的地方。

经典计算机和量子计算机搭配使用会更有效

现在科学家们也普遍认为,并不是所有问题在未来都要用量子计算机来解决,有些问题用经典计算机和经典算法已经能处理得非常好了,那就没有必要再多花心思去开发它们的量子算法了。

你现在可能心中会些怀疑。从肖尔算法的提出到现在已经过去二十多年了,仍然是只有孤零零的这么几个量子算法,我们是哪里来的信心未来一定会有更多量子算法被创造出来呢?

在经典计算机里,有一个现在公认最快的排序算法。它是在第一台电子计算机被发明后的十几年之后才被发现的。

像肖尔一样,在还没有量子计算机的时候就提出了可行的量子算法只是偶然现象。等到量子计算机真正实现之后,科学家可以真正地将算法运行在量子计算机上时,一定会迎来一次量子算法的大爆发的。

量子算力:赢得未来的关键

我们正处于实现“量子霸权”的关键节点

量子霸权是在2011年的时候由科学家们提出的一个指标,代表了对经典计算机的碾压。它指的是,量子计算机只要针对某个计算问题,拥有超越所有经典计算机的计算能力就算达成了量子霸权。甚至这个问题可以完全没有实际价值。

在2019年9月20日,谷歌公司就曾经发表过论文,论文里称他们率先达成了量子霸权。他们研发的量子计算机成功地在200秒内完成了一个计算问题,而现在最好的超级计算机来算这个问题需要1万年的时间。当然了,这个问题是专门设计的,并没有实际价值。

以前都是理论上、数学上的证明,这一次是实验结果给出了强有力的证据,证明了量子计算拥有超强算力。

虽然这是具有重大里程碑意义的事情,但是根据论文透露,他们的量子计算机只有53个量子比特,距离使用肖尔算法这样的实用算法还有很远的距离。

简化后的专用量子计算机仍然有广泛的需求

实现一个量子计算机需要在很多方面都要同时达到要求。但如果降低标准,放弃某些方面的要求,量子计算机实现起来就会容易很多。

比如,放弃掉量子计算机的纠错能力的话,就相当于取消了冗余信息,那样的话就可以有更多有效的量子比特进行计算了。这就代表了这样的量子计算机不能用来处理通用问题,但是还可以通过算法弥补其中的不足,用来解决一些特定的问题。

比如,在制药上,经常需要模拟一些蛋白质分子的折叠情况。因为像是阿尔茨海默症、帕金森症、2型糖尿病等等,这些疾病的致病原因都是因为体内的某些蛋白质折叠错误造成的。对于这些病症如果想要研究清楚,那么就需要弄明白蛋白质的折叠情况。但是一个蛋白质分子是由许多原子构成的复杂结构,除了原子数量多之外,它的三维空间结构也会影响到它的性质。所以要想研究清楚蛋白质的结构,尤其是它对各种药物的反应,最好的方法就是用计算机将组成蛋白质的所有原子模拟出来,然后将所有变化和反应都在计算机里进行推演。

当然这样的操作依靠经典计算机的算力是无法实现的。但是交给量子计算机却可以,而且用简化版的量子计算机就能完成得很好。

虽然今天的量子计算机还不够帮助阿尔茨海默症这些疾病的研究,但在小规模问题上,这种模拟已经被成功验证了。2017年,IBM公司在7个量子比特的量子芯片上,模拟了氢化铍(BeH2)分子的特性。这虽然是一个简单的分子结构,还没有什么实际用途,但是这也成为了用量子计算机模拟分子的一个重要里程碑。

退火量子计算机是最先商用的专用量子计算机

这是用量子计算机进行模拟的例子,距离商业已经非常近了。它是加拿大的D-Wave公司早在2007年就推出的一台商用退火量子计算机。现在美国的NASA和谷歌都已经购买了这种量子计算机去解决实际的优化问题。

量子退火计算机就是为发挥出这个特性而专门设计的,所以它只能运行退火算法。虽然不通用,但量子退火算法正适合大数据、机器学习和人工智能等重要的应用场景,能帮助人们从体量巨大、结构繁多的数据中,挖掘规律,发现模式。这种需求可是非常庞大的。

未来十年量子计算机可以达到上百量子比特的数量

现在学术界最理想的预期是,未来的十年左右,就可以实现上百个量子比特规模的通用量子计算机了。这之后,量子计算机的进一步发展,就需要在系统和算法层面进行综合考虑了。

之前经典计算机研发时的经验都可以提供借鉴。比如:利用模块化、网络化等方案来提高量子比特规模,这样就可以实现大规模可纠错的量子计算机了。

等真的到了这一步,量子计算机就真的可以成为了通用计算机。不只是去解决大数分解、无序数据库搜索、大分子模拟等等这些特定问题,而是能够用来解决更多、更通用的问题了。

同时,我们也完全可以相信,量子计算机也会和经典计算机一样,会有越来越多的量子算法被开发出来,会有更多的问题在量子计算机上得到解决。

量子计算机的极限就是量子力学的极限

计算机的本质是一个物理系统的演化。这个物理系统所遵从的规律,就是计算的法则。物理系统的规律是否更基础更底层,决定了计算机的算力是否强大。

所以,经典计算机的极限,其实就是经典物理学的极限。那么量子计算机的极限,自然就是量子力学的极限了。

量子计算的极限,就在于我们能否突破量子力学。它可是我们现在能够掌握的最基本、最底层的自然规律。

以量子计算为代表的算力提升,是人类进化的核心技术。当我们发现了更基础、更底层的自然规律后,在更强大的算力到来之时,才是量子计算机的巅峰极限。

你可能感兴趣的:(量子计算机笔记)