量子計算機研究進展
來自《南京郵電大學學報(自然科學版)》,作者郭光燦等
摘要:量子計算機是未來量子技術時代最具顛覆性的技術,文中將以量子計算機的誕生、工作原理和在世界范圍內的發展現狀為主要闡述內容。目前階段,量子計算機的研制已從以院校、研究所的基礎性研究為主體的階段,過渡到以公司企業為主要研發驅動力的階段,并開始逐漸進入到“量子霸權”的發展新階段,當然,目前的量子計算機還比較初級,離可破解密碼的通用量子計算機還有很長的路要走。
關鍵詞:量子計算機;超導量子計算;離子阱;量子比特
量子計算機(Quantum Computer)是一種運行規律遵循量子力學,能夠進行高速數學和邏輯運算、存儲及處理量子信息的物理裝置。量子計算機的概念源于對可逆計算機的研究。量子計算機的基本運行單元是量子比特,能夠同時處在多個狀態,而不像傳統計算機那樣只能處于0或1的二進制狀態,因而具有傳統計算機所無法比擬的強大并行計算能力。量子計算機從概念提出到現在,已經有40多年的發展歷史。該方向的研究經歷了幾個重要的發展階段,克服了一系列艱巨的理論與實驗障礙,從目前來看,量子計算機的實現已經不存在原則上不可逾越的困難。近幾年量子計算機的研究更是飛速發展,日新月異,可解決部分實際問題的量子計算機正初見曙光。
1 量子計算機誕生
電子計算機的出現促使人類社會得以飛速發展,特別是摩爾定律支配著計算機的運算速度每18個月翻一番,這使得電子芯片的尺寸越來越小但是其功能卻越來越強大,電腦、手機成為人們無法離開的日常工具。
20世紀80年代,正當計算機迅猛發展之際,物理學家卻提出“摩爾定律是否會終結”這個不合時宜的命題,并著手開展研究,最后竟然得出結論:摩爾定律必定會終結。原因是摩爾定律的技術基礎是不斷提高電子芯片的集成度,即單位芯片面積的晶體管數目。但這個技術受制于兩個物理因素,一是芯片集成度越高,由于非可逆門操作時丟失的大量比特所轉換的熱量將越嚴重,最終會燒穿電子芯片。二是終極的運算單元是單電子晶體管,單電子的量子效應必然會影響芯片的正常工作。但當時多數學者對物理學家的這個結論不以為然,甚至認為物理學家是杞人憂天。然而物理學家并未停下腳步,繼續著手第二個命題的研究:摩爾定律失效后,如何進一步提高處理信息的速度,即什么是后摩爾時代的新技術?于是,誕生了“量子計算機”的設計藍圖。
1982年美國物理學家費曼(R.Feynman)最早提出“量子模擬”的概念[1],即采用按量子力學規律運行的裝置來模擬量子體系的演化。隨后英國物理學家德意奇(D.Deutsch)提出“量子圖靈機”的概念[2],“量子圖靈機”可等效為量子電路模型。從此“量子計算機”的研究便在學術界逐漸引起人們的關注。1994年肖爾(P.W.Shor)提出了量子并行算法[3],證明量子計算機可以求解大數分解難題,能夠將經典算法中分解因數所需時間隨著整數長度指數增長的問題縮減為多項式增長,大大加快大數因子分解的速度,從而攻破廣泛使用的RSA公鑰密碼體系,量子計算機才引起廣泛重視。Shor量子并行算法是量子計算領域的里程碑工作。1996年,勞埃德(S.Lloyd)給出能夠模擬局域相互作用量子系統演化的通用量子計算機算法[4],使得通用量子計算機可能有效模擬量子系統演化以及求解某些量子系統的基態能量等問題,從而使其未來可能在物理、化學和材料等學科的研究中發揮重要作用。進入21世紀,學術界逐漸取得共識:摩爾定律必定會終結,量子計算是后摩爾時代最有希望的新技術。
2 量子計算機的基本概念
2.1 量子計算機的工作原理
量子計算應用了量子世界的特性,如疊加性、非局域性和不可克隆性等,因此天然地具有并行計算的能力,可以將某些在電子計算機上呈指數增長復雜度的問題變為多項式增長復雜度問題,亦即將電子計算機上某些難解的問題在量子計算機上變成易解的問題。量子計算機為人類社會提供具有強大無比運算能力的新型信息處理工具,因此稱之為未來的顛覆性技術。做個形象的類比,量子計算機的運算能力與經典電子計算機相比,大致等同于經典電子計算機的運算能力同算盤相比。由此可見,一旦量子計算得到廣泛應用,人類社會各個領域都將會發生翻天覆地的變化。
量子計算的運算單元稱為量子比特,它是0和1兩個狀態的疊加。量子疊加態是量子世界獨有的特征,因此,量子信息的制備、處理和探測等都必須遵從量子力學的運行規律。量子計算機的工作原理示意圖如圖1所示。
圖片
圖1 量子計算機的工作原理
量子計算機與電子計算機一樣,用于解決某種數學問題,因此它的輸入數據和結果輸出都是經典的數據。區別在于處理數據的方法上,兩者具有本質的不同。量子計算機將經典數據制備在量子計算機整個系統的初始量子態上,經由一系列幺正操作演化為量子計算系統的末態,對末態實施量子測量,便輸出運算結果。圖1中虛框內都是按照量子力學規律運行的。圖1中的幺正操作(U操作)是信息處理的核心,如何確定U操作呢?首先選擇適合于待求解問題的量子算法,然后將該算法按照量子編程的原則轉換為控制量子芯片中量子比特的指令程序,從而實現了U操作的功能。量子計算機的實際操作過程如圖2所示。
圖片
圖2 量子計算機的實際操作過程[5]
工作人員在電腦上操作輸入問題和初始數據,經由量子軟件系統轉化為量子算法,隨之進行量子編程,將一系列指令發送至量子計算機的控制系統,該系統對量子芯片系統實施對應的操控,操控結束后,量子測量的數據再反饋給量子控制系統,最終返回到工作人員的電腦上。
量子邏輯電路是用于實現U變換的操作,任何復雜的U操作都可以拆解為單量子比特門Ui和雙量子比特門Ujk的某種組合(即可拆解定理),Ui和Ujk是最簡單的普適邏輯門集。典型的單雙比特門如圖3所示[5-7]。
圖片
圖3 單雙量子比特門
基于量子圖靈機(量子邏輯電路)的量子計算稱為標準量子計算,現在還在研究的其他量子計算模型還有:單向量子計算、分布式量子計算、拓撲量子計算和絕熱量子計算(量子退火算法)等。
量子計算本質性地利用了量子力學的特性,因此其實際應用的重要障礙是宏觀環境不可避免地破壞量子相干性[8](即所謂消相干問題),使量子計算機演變成經典計算機。若不能有效地克服消相干,即使量子芯片(硬件)做成了,量子計算機也無法實際應用。“量子編碼”用于克服環境的消相干,它增加信息的冗余度,用若干物理量子比特來編碼一個邏輯比特(信息處理的單元)。也已證明,采用起碼5個量子比特編碼1個邏輯比特,可以糾正消相干引起的所有錯誤。量子計算機實際應用存在另一類嚴重的錯誤,這種錯誤來源于非理想的量子操作,包括門操作和編碼的操作。科學家提出容錯編碼原理來糾正這類錯誤,該原理指出,在所有量子操作都可能出錯的情況下,仍然能夠將整個系統糾正回理想的狀態。這涉及到“容錯閾值定理”,即只有量子操作的出錯率低于某個閾值,才能實現量子容錯。容錯閾值與量子計算的實際構型有關,在一維或準一維的模型中[5],容錯的閾值為10-5,在二維情況(采用表面碼來編碼比特)中[9],閾值為10-2。經過科學家十多年的努力,現在離子阱和超導系統的單雙比特操作精度已經達到這個閾值[10-11]。這個進展極大地刺激了人們對量子計算機研制的熱情,量子計算機的實現不再是遙不可及的。量子計算機的研制便逐步走出實驗室,成為國際上各大企業追逐的目標。
量子計算機研制涉及以下關鍵技術部件:(1)核心芯片,包括量子芯片及其制備技術;(2)量子控制,包括量子功能器件、量子計算機控制系統和量子測控技術等;(3)量子軟件,包括量子算法、量子開發環境和量子操作系統等;(4)量子云服務,即面向用戶的量子計算機云服務平臺。
2.2 發展量子計算機的兩大路線
目前量子計算主要分為固態器件和光學路線兩大類路線,谷歌、IBM、英特爾這幾家大公司采用的“固態器件路線”,霍尼韋爾公司主打離子阱體系,采用的屬于“光學路線”。下面分別看看這兩大路線各自的優缺點。
目前階段,光學路線的離子阱體系在操控精度和相干時間上具有較大的優勢,具有較高的制備和讀出量子比特的效率。此外,雖然該體系需要使用真空,但是不需要大型冷卻裝置,因而可以在室溫下運行,極大地降低了開發、運行成本,因此離子阱量子計算機也是比較有前途的發展方向之一。但是與超導、半導體等固態體系相比,離子阱體系的缺點也比較明顯,一是可操控性較差,二是很難與經典計算相兼容。整體來看,目前世界上絕大部分量子計算機采用的都是固態器件的路線,因為在加工制造、與經典計算兼容等方面,固態器件都具有明顯的優勢。而采用離子阱等光學路線的學派更多是應用在科學研究上。
超導量子計算是目前國際上發展最快最好的一種固態量子計算的實現方法。超導量子電路的能級可以通過外加電磁場進行干預,電路更容易實現定制化開發,而且現在的集成電路工藝已經十分成熟,超導量子電路的可擴展性優勢十分明顯。但是,超導量子電路也存在一些問題,由于量子體系的不可封閉性,環境噪聲、磁通偏置噪聲等大量不受控的因素存在,經常會導致量子耗散和相干性退化。此外,超導量子體系工作時對物理環境要求極為苛刻,比如,超低溫是超導量子計算實現過程中不可避免的問題。
硅基半導體量子計算機是固態器件路線的另一個重要研究方向,這種量子計算機最大的優勢是容易與現有的半導體加工制備技術相兼容,一旦克服了某些關鍵技術難題,便可在當下十分成熟的微電子工藝平臺上開展大規模研發,從而獲得迅速的發展。因此,盡管目前階段半導體量子芯片的量子比特數遠低于超導芯片,但未來其發展潛力不可低估。目前,不少國際大公司以及國內本源量子公司也在從事該方向的研究開發。
2.3 量子計算機的主要參數[12]
量子體積(Quantum Volume):一種由IBM公司提出的增長規律類似于摩爾定律的新指標。該指標的主要用途就是用來衡量設計的量子計算機的性能。此外,對一臺量子計算機而言,其性能好壞又主要受限于這臺量子計算機的量子比特數、測量誤差、設備交叉通信、設備連接、電路軟件編譯效率等因素。因此,量子體積可以理解為這些因素對量子計算機性能影響的綜合衡量指標,即多種因素綜合考慮后的計算機性能指標。綜上所述,對于量子計算機而言,如果所擁有的量子體積越大,其解決復雜問題的能力就越強,相應的其性能就越好。
限制保真度(Typical Limiting Fidelity):保真度的概念在量子信息技術中有著十分重要的地位。由于量子態在量子計算、量子密碼中一般充當著信息載體的作用,所以為了衡量量子態前后的差距,保真度成了一個必不可少的衡量工具。對保真度而言,不管其衡量量子態的場景是什么,它都是數值越大越好。而在量子計算中,科學家為了更好地描述量子計算機,則在一般保真度的基礎上提出了限制保真度的概念。限制保真度的提出,量化了量子計算機得到正確答案的概率,進一步完善了對量子計算機的描述。
相干時間(Coherence Time):在量子信息中,一般將量子系統相干性受外界因素影響而逐漸消失的過程稱之為量子退相干,也即量子系統中量子比特疊加狀態的消失過程,而這個過程所持續的時間則稱之為相干時間。此外,量子退相干對量子計算有很大的影響,量子退相干會使系統的量子行為轉變為經典行為,這個轉變過程可能是由系統噪聲導致的,也可能是由量子比特的測量導致的。但不管什么原因,該過程都不可避免地使包含在量子系統中的一些信息隨著退相干過程而損失掉,進而使量子計算機的計算出現一定程度的偏差。因此,對量子計算機而言,其所有的量子操作都必須在量子退相干現象出現之前完成,也只有這樣才能使得量子操作保持在一個較高的保真度。換言之,如果一臺量子計算機有著較長的退相干時間,那么其量子操作的時間就越多,相應的處理效率也就越高。
全連接(Full Connectivity):顧名思義就是全部連接,不同于經典系統中經典電子元器件的全部連接,全連接在量子系統中則是指量子系統最小單元的全連接,即量子比特間的全連接。全連接的概念給量子計算機連通性的衡量提供了便利。一般的量子系統,只滿足在物理上彼此相鄰的量子比特對之間的直接交互,并不滿足不相鄰量子比特對之間的交互。而對全連接的量子計算機系統而言,它能夠滿足系統中任意量子比特對之間的交互,且不需要借助某個中間量子比特。這樣的優點使得全連接量子計算機能夠在有限的退相干時間內執行更多的量子操作,從而實現更具規模的深層次量子線路,以及更加復雜的量子算法。
中間線路測量(Mid-circuit Measurement):測量塌縮理論是量子力學的一個基本定律,即測量一個未知的量子態會使該量子態以一定的概率塌縮到它的某一個本征態。這里的中間線路測量即為測量塌縮定律的一個應用場景,不同于以往的量子態測量,中間線路測量是指在量子計算機量子線路的某個位置選擇性地測量量子比特,且測量位置不局限于量子線路的末端。量子計算機的中間線路測量是一項特殊的功能,該功能使得用戶可以知道某位置被成功測量的量子比特是由測量而塌縮得到的經典狀態(0或1),而沒有被測出的量子比特則仍保持其量子狀態,這樣的特性便于用戶決定后續量子線路上的量子操作。此外,這里還需注意一點,對于成功測量而獲知其量子信息的量子比特而言,可以通過初始化使其再次整合到量子線路中,從而執行其他更多的量子操作。這樣的直接好處就是可以充分利用少量且寶貴的量子比特資源,從而實現更大的量子系統建模。
高分辨率旋轉(High-resolution Rotations):為盡可能提高量子計算機量子線路深度范圍內的操作效率,霍尼爾系統模型舍棄以往利用多步復合操作來產生相同的旋轉角度,轉而使用激光門來實現單量子比特門中的旋轉。高分辨率旋轉方法相比以往產生旋轉角度的方法,不論是在操作復雜度還是在旋轉角度的精確度方面都有了很大的提高。
3 量子計算機的研制進展
3.1 量子計算機的最新成果
目前,量子計算機的研制從以科研院校為主體變為以企業為主體后,發展極其迅速。2016年IBM公布全球首個量子計算機在線平臺,搭載5位量子處理器。量子計算機的信息處理能力非常強大,傳統計算機到底能在多大程度上逼近量子計算機呢?在不是非常大的邏輯深度下,2018年初創公司合肥本源量子計算科技有限公司推出當時國際最強的64位量子虛擬機,打破了當時采用經典計算機模擬量子計算機的世界紀錄。2019年量子計算機研制取得重大進展:年初IBM推出全球首套商用量子計算機,命名為IBMQ SystemOne,這是首臺可商用的量子處理器[13],其展示圖如圖4(a)所示。2019年10月,Google在《自然》上發表了一篇里程碑論文,報道他們研發出了如圖4(b)所示的53個量子比特的超導量子芯片,并用該芯片實現了一個量子電路的采樣實例,且耗時僅為200 s。而同樣的實例在當今最快的經典超級計算機上可能需要運行大約1萬年。他們宣稱實現了“量子霸權”,即信息處理能力超越了任何最快的經典處理器[14]。
圖片
圖4 2019年量子計算機的研制取得重要進展
2020年6月和8月,霍尼韋爾與IBM先后分別宣布實現了64位量子體積的量子計算機[15-16],如圖5所示。同期,杜克大學和馬里蘭大學的研究人員首次設計了一個全連接的32-Qubit離子阱量子計算機寄存器,相較于之前公開的霍尼韋爾和IBM最大6-Qubit,該設計提高了5倍以上,也是此前公開最多量子比特完全連接的技術架構[17]。
圖片
圖5 2020年IBM、霍尼韋爾分別實現量子體積為64的量子計算機
2020年8月,Google量子研究團隊在量子計算機上模擬了迄今最大規模的化學反應,通過使用量子設備對分子電子能量進行Hartree-Fock計算,并通過變分量子本征求解來進行糾錯處理完善其性能,進而實現對化學過程進行準確的計算預測[18]。該團隊涉及的相關工作如圖6所示。
圖片
圖6 2020年Google在量子計算機上模擬化學反應的基礎旋轉和編譯電路[18]
總之,量子計算機的研制發展高潮迭起,且已從高校、研究所為主轉變為以公司為主力,從實驗室的基礎研究邁向企業的實用器件研制階段。
3.2 量子計算機的發展階段
(1)量子計算機原型機。原型機的比特數較少,信息功能不強,應用有限,但“五臟俱全”,是地地道道的按照量子力學規律運行的量子處理器。IBM發布的Q SystemOne、霍尼韋爾與IBM分別實現的64位量子體積的量子計算機,以及谷歌團隊用來模擬化學反應的量子計算機均屬于此類原型機。
(2)量子霸權。尋找專用級的芯片,用它來解決特定行業的問題,比如“量子霸權”。量子比特數在50~100左右,其運算能力超過任何經典的電子計算機。但未采用“糾錯容錯”技術來確保其量子相干性,因此只能處理在其相干時間內能完成的那類問題,故又稱為專用量子計算機。這種機器實質是中等規模帶噪聲量子計算機(Noisy Intermediate-Scale Quantum,NISQ)。應當指出,“量子霸權”實際上是指在某些特定的問題上量子計算機的計算能力超越了任何經典計算機。這些特定問題的計算復雜度經過嚴格的數學論證,在經典計算機上是指數增長或超指數增長,而在量子計算機上是多項式增長,因此體現了量子計算的優越性。目前采用的特定問題是量子隨機線路的問題或玻色取樣問題。這些問題僅是Toy(玩具)模型,并未發現它們的實際應用。因此,盡管量子計算機已邁進到“量子霸權”階段,但在中等規模帶噪聲量子計算(NISQ)時代面臨的核心問題是探索這種專門機的實際用途,并進一步體現量子計算的優越性。
(3)通用量子計算機。這是量子計算機研制的終極目標,用來解決任何可解的問題,可在各個領域獲得廣泛應用。通用量子計算機的實現必須滿足兩個基本條件,一是量子比特數要達到幾萬到幾百萬量級,二是應采用“糾錯容錯”技術。鑒于人類對量子世界操控能力還相當不成熟,因此最終研制成功通用量子計算機還有相當長的路要走。
4 量子信息技術時代何時到來
4.1 量子計算機的實現難題
目前,國內外眾多量子計算機研發團隊在研制量子計算機的道路上都取得了一定的進展,但是依然沒有實現通用的量子計算機。主要困難在于:(1)量子計算機是“人造的宏觀量子系統”,量子比特的不穩定性會導致輸入信息丟失或被置換,從而降低結果的準確性,甚至給出不可靠結果。理論上雖然采用“糾錯-容錯”技術,原則上可以糾正這種消相干所導致的運算錯誤,確保計算的可靠性,但“糾錯-容錯”要求對量子比特操作的保真度極其高,在當下實驗中難以達到。(2)要創建有價值的、規模化的量子計算機將需要數十萬乃至數百萬個量子比特,而人類操控量子世界的能力很有限,無法精準地操控量子器件的量子狀態及其演化,特別是含有百萬量級量子比特系統,要準確調控其中任意量子比特,或者任意兩個量子比特之間的強耦合,目前的技術水平還遠遠達不到。
因此,量子計算機雖然是量子力學理論預言的產物,原理是正確的,但真正研制成實用的量子計算機還需要一個十分艱難的過程,不是“一朝一夕”可實現的。一旦通用量子計算機得到廣泛的實際應用,就可以宣稱,人類社會已步入到量子技術時代。
4.2 未來量子計算機的應用舉例
(1)破譯密碼。當前廣泛應用的基于RSA公開密鑰算法的密碼體系,其安全性來自電子計算機難以快速地完成大數因子分解,即將大數N分為兩個素數q和p相乘N=qp,設N=129位。1994年全世界1 600臺工作站采用硬件平行運算花了8個月才完成這個分解,但若采用Shor量子算法,在2 000位量子計算機上只要1 s即可以分解成功。隨著N增大,電子計算機所需時間將指數上升,而量子計算機上則以多項式上升,所以,一旦量子計算機研制成功,這種RSA密碼以及現有的所有公開密碼體系都將被攻破。
(2)搜索問題。即從龐大無規律的數字庫中找到特定的信息,如從包含有N個條目的電話號碼薄中搜索到一個特定的號碼,電子計算機需要操作N次才能找到,而量子計算機只需圖片。看似提速不多,但當N非常大時,效果就非常明顯。設N=106,電子計算要操作100萬次,而量子計算機只需要1 000次。
(3)新藥開發。設想需要設計一種能夠識別并抑制HIV病毒活性的RNA分子,通常先要在計算機上模擬,尋找最有效的分子結構。由于分子是由特定原子通過特定化學鍵聯結而成的,原子和化學鍵遵從量子力學運動規律。在電子計算機上模擬隨著原子數目增加,所需運算資源將指數增長,這很難做到;而采用量子計算機模擬則是多項式增長,很容易實現。
(4)量子機器學習。機器學習已經成為當今一大熱門技術,目前在語音轉換、人臉識別、智能城市等眾多領域已建立起成熟的生態。然而機器學習對算力要求極高,目前部分應用已經發展到必須借助大規模的計算機集群才能運行的階段。本身具備有超越電子計算機能力極限的量子計算機將是下一代機器學習的理想平臺。
(5)量子計算與經典計算的聯合。不管是最小計算單元還是對多變量的計算處理,量子計算和經典計算都存在十分顯著的差異。兩種計算方式各有優缺點,比如量子計算的最大優點是算力強大,其利用量子力學的基本原理,具有強大的并行數據處理能力,可以有效解決經典計算所不能解決的復雜問題。與之相對,雖然經典計算實現較為簡單,但是其在一些算力需求較大的問題上就顯得無能為力。綜上,量子計算與經典計算的相互補足,可以有效解決未來實際生活中大部分與算力相關的問題,也正是因為兩者的協同關系,有關學者提出了量子-經典聯合的概念,并期望利用量子-經典聯合的混合方案來解決實際生活中困難的多變量問題。比如利用混合方案在最短時間內獲取考慮多方面變量因素的最優物流路線。此外,因為這種方案相較于完全的量子計算來說更容易實現,所以量子計算在實際應用中迎來突破性進展之前,該方案必然是眾多學者關注的重點。隨著混合方案研究的不斷深入,也許在未來的某一天能真正意義上地觸及擁有無限算力的量子計算,并用它來簡化這個世界的復雜性。
5 結束語
從量子計算機的概念提出到現在,已有40余年。在相當長的時間內,多數人對于能否研制成功量子計算機持嚴重懷疑的態度。但當科學家經過艱苦努力,在關鍵的基礎問題上取得重大突破之后,近年來量子計算機研究取得了突飛猛進的進展。雖然距實現通用量子計算機還有很長的路要走,但可實際使用的量子處理器不久將可問世。相信今后量子計算機研制成果將不斷涌現。我國在量子計算機研制上已經明顯落后于美國,迫切需要踏踏實實地奮起直追。合肥本源量子計算科技有限責任公司研制成功6個量子比特的在線量子計算平臺,提供全球上網使用,雖然這只是達到IBM公司三、四年前的水平,但畢竟是自主研發的可實際演示使用的第一個量子計算平臺。相信隨著我國政府的重視、支持,以及國內大量企業在該領域的關注與持續投入,我國的量子計算機的研制將會不斷取得突破,緊追國際前沿水平。
審核編輯:符乾江
評論
查看更多