“量子”一词是如何进入大众视野的
自 2016 年 8 月 16 日,由中国科学技术大学研制的世界首颗量子科学实验通讯卫星“墨子”号成功发射上空以来,量子密钥分发建立的一次一密的加密方式,实现了点对点方式的安全通信。作为中科院空间科学先导专项中首批确定立项研制的 4 颗科学实验卫星之一,“墨子号”量子卫星的成功发射和在轨运行,不仅加速了我国广域量子通信网络的构建,还可开展对量子力学基本问题在空间尺度的实验检验,从而加深人类对量子力学的理解。
 
 
自此,“量子”一词走进国人的视线。
 
2017 年 5 月 3 日,中科院量子信息和量子科技创新研究院实验室内一台由数千件元器件组成的光量子计算机的“幼儿”诞生了。中国科学技术大学潘建伟教授说,虽然这台光量子计算机的计算速度仍比较慢,但是它是未来量子计算机的雏形。未来的量子计算机将会以相对于如今的经典晶体管计算机的指数倍的运算速率来运算。
 
 
“量子”和“量子计算机”的定义
相信很多人都听说过“薛定谔的猫”的故事。一只猫,被放在完全密封的盒子内,在有由不确定的控制因素操纵的毒药和食物共存的情况下,如果不打开这个盒子,这只猫就处于一种非死非活的叠加态。这种特殊的状态正是量子理论的特性。
 
 
那么,究竟什么是量子捏?
 
当量子和计算机结合在一起,又会擦出什么样的火花呢?
 
量子可以认为是某种物质或某个物理量的不可分割的最小单位。“量子”一词起源于拉丁文 quantus,意为“有多少”,代表“相当数量的某物质”。1900 年左右,M·普朗克为试图解决黑体辐射问题,引入“能量子”一词,为表示能量的最小单位。在 1905 年,爱因斯坦将“量子”一词引入光学,构成了“光量子”一词。后经玻尔、德布罗意、海森堡、薛定谔、狄拉克、玻恩等科学家们的不断完善,在 20 世纪的前半期,完整的量子力学理论初步建立,可用以描述微观世界里、用经典力学无法解释的物理现象。
 
可是,量子计算机又是什么呢?
 
它是一种利用量子力学原理进行数据和信息处理的机器。通俗来说,当某个装置处理和计算的是量子信息,运行所依据的是量子算法时,它就是量子计算机。
 
真正意义上的量子计算机需要满足五个条件:
 
1,  可拓展的量子比特。对于光量子计算机,光子的偏振态可以作为一个量子比特;对于电子,可以采用其自旋态作为一个量子比特。同时,需要明确的一个定语为“可拓展的”,即如果要具备一个 20 个比特的光量子比特,首先要快速产生 20 个光子,而且要进行相应的测量。由于真正能实现可拓展的量子力学系统较少,因此对量子产生的效率要求非常高。
 
 
2,  做运算的初始条件。根据需要做的操作制备相应的态。
 
3,  较长的相干时间。因为量子计算机加速性就是来自量子比特的相干叠加,量子比特是一个 0 跟 1 的相干叠加的,如果相干时间非常短,短到小于可操作时间,量子比特就会塌缩,变成经典比特,所以就得不到量子的加速性。
 
4,  通用的量子逻辑门。普适性高和精度高的的通用量子逻辑门是量子计算的重要条件。目前的设计集中在量子异或门的方向上。
 
5,  对量子比特进行测量。准确有效的测量方法能有效地辅助量子计算机的纠错以及计算过程,保证计算机的顺利运行。
 
以上量子计算机的条件由 DiVincenzo 提出,一般,满足以上条件的计算机可称为量子计算机。
 

 

量子计算机的进展及实现方案
量子计算的概念最早由 C.H.Bennett,P. A.Benioff,D.Deutsch 以及 R.P.Feynman 三位科学家先后提出。
 
1994 年 shor 提出大数因式分解的量子并行算法,使得人们对量子计算机未来的广泛用途有了新的认识,也为量子计算机的研制奠定了理论基础。
 
2001 年,科学家在具有 15 个量子位的核磁共振量子计算机上成功利用秀尔算法对 15 进行因式分解。
 
2007 年 2 月,加拿大 D-Wave 系统公司宣布研制成功 16 位量子比特的超导量子计算机,但其作用仅限于解决一些最优化问题。
 
2009 年 11 月 15 日,世界首台可编程的通用量子计算机正式在美国诞生。同年,英国布里斯托尔大学的科学家研制出基于量子光学的量子计算机芯片,可运行秀尔算法。
 
2012 年 2 月,IBM 声称在超导集成电路实现的量子计算方面取得数项突破性进展。该量子芯片拥有 5 个量子比特。据说 40 个量子比特的计算机,即相当于现在一台超级计算机的性能。
 
 
 
2013 年 6 月 8 日,由中国科学技术大学潘建伟院士领衔的量子光学和量子信息团队首次成功实现了用量子计算机求解线性方程组的实验,这个实验也受到国际上的高度评价。
 
2017 年 5 月 3 日,中国的第一台真正意义上的光量子计算机诞生于潘建伟团队,该计算机的取样速度相比于国际同行快了将近 24000 倍。
 
 
目前,国际上对量子计算机的实现方案有以下几种:原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。冷阱束缚离子是目前研究结果较好的方案;量子点方案和超导方案更适合集成化和小型化,但是对于计算精度有一定限制。
 
中国科学技术大学量子实验室的量子芯片是基于量子点系统,虽然集成的量子比特少,但这种结构拥有更好的量子逻辑门精度。中国科学技术大学潘建伟团队认为,光子量子计算、超冷原子量子计算和超导量子计算是 3 个很有希望的研究方向。
  
量子计算机的特点
发展至今,虽然量子计算机的性能还无法与经典晶体管计算机的性能相比拟,但是对比晶体管计算机,量子计算机有望解决晶体管计算机无法避免的两个重大问题:
 
1,  尺寸及集成问题。随着经典晶体管计算机的发展,两个问题逐渐显现并成为限制晶体管计算机发展的“瓶颈”。一是随着芯片内晶体管尺寸的不断缩小,量子效应逐渐代替传统的宏观物理原理;二是随着晶体管集成度的不提高,计算机的高能耗以及高产热不断反作用于计算机的芯片,热量反作用于芯片从而导致计算速率受到限制。
 
2,  计算速率问题。晶体管计算机的存储单元为比特(bit)。比特为二进制位,因此只能处于“0”态或者“1”态。而量子计算机的信息存储单元为量子比特(qubit),其两态可以利用电子的自旋方向或者原子的不同能级来表示。量子计算机利用量子态的叠加性质,可以实现计算能力的飞跃。现在计算机的运算单位比特只有 0 和 1 这两种状态,但量子计算机中可以处在 0 和 1 的叠加态上。因此 N 个量子比特的存储能力是 N 个经典比特的 2 的 N 次方倍,随 N 指数增长。对 N 个量子比特实行一次操作,其效果相当于对经典存储器进行 2 的 N 次方次操作,说明量子计算机的计算速率将是 2 的 N 次方倍。
 
同时,晶体管计算机执行的是对单个数据元素的处理;而量子计算机执行的是对数据“集合”的处理。但是运算的基本单元的区别也导致运算过程上的巨大差异。晶体管计算机以单个元素为基本单元进行处理,因此若输入的数据为 x,则可直接得到输出数据 y;量子计算机因为是以“集合”作为数据处理的基本单元,因此若无法直接得到输入数据 x 的对应值 y,必须将所有的输出值集合数据全部提取,才可找出 y。但是,理论上来讲,以上数据处理方式的差异并不会影响量子计算机的数据处理速率上的优势;相反,这种特点让量子计算机在一些特殊领域,如天气预测方面,可以起到非常好的效果。
 

 

量子计算机的设计难点
实现量子计算机的关键是解决多量子纠缠的控制问题。2016 年 12 月,中国科学技术大学潘建伟教授实现了国际上最顶尖的量子纠缠的控制技术——10 光子纠缠技术。实现对光量子纠缠的操控的目的是实现数据之间的准确、快速传递。
 
 
理论上来说,两个相聚一定距离的量子之间会存在一定的影响,其中一个量子的状态发生变化,另一个量子也会产生相应的变化。这种信息的传播方式是以超光速的速度进行的,故而量子纠缠也会产生最快速、最安全的信息传输方式。因此,实现对几十至上百个量子纠缠的控制是研制量子计算机的第一步也是极其重要的一步。
 
但是量子系统极其脆弱。因为量子计算机中,执行运算的量子比特并非一个孤立系统,它必然会与外部环境发生相互作用。受实验条件限制和不可避免的环境噪声的影响,制备出来的纠缠态一般并非是最大纠缠态;同时,量子纠缠态受环境的影响会产生相干态的衰减,同时这种消相干作用也不可避免,因此纯态的量子纠缠会退化成为混合态,从而失去量子纠缠的作用。使用这种混合纠缠态进行量子通信和量子计算将会导致信息失真。
 
因此量子计算过程中的消相干,或者是一些其他的技术原因,如量子门操作中的失误等,相都导致运算结果出错。
 
为达到更好的量子通信或量子计算效果,需要通过纠缠纯化技术将混合纠缠态纯化成纯纠缠态或者接近纯纠缠态。也需要利用量子纠错技术将量子计算过程中的错误在一个量子比特的相位一致中被发现并被修复。
 
除了量子纠缠的问题,量子计算还面临其他三大问题:量子算法、量子编码、实现量子计算的物理体系。
 
虽然前途仍旧渺茫,但是基于不断取得的科研进展,科学家对于量子计算机的研制进程还是持非常乐观的态度。
 
量子计算机的前景展望
“我认为 10 年之内做到 100 个量子比特的操纵没有问题,它的计算能力可以达到现在全世界计算能力总和的百万倍。”潘建伟自信地说。
 
量子计算机,仿佛远在天边,却又近在眼前。也许实现量子计算机由 5 量子比特到 50 量子比特的跨越还有一段距离,也许由专用的量子计算机到通用的量子计算机之间也有貌似不可逾越的鸿沟。
 
但是无论 10 年之内能否研制其出性能碾压当代超级计算机的量子计算机,目前对量子计算机的研究都是科学家正在全力以赴地努力的事情。而未来通用型量子计算机的问世,也必将对人类社会产生革命性的影响。
 
小伙伴们,对于量子计算机,你有什么期待和展望吗?