量子計算機有可能徹底改變藥物發(fā)現(xiàn)、材料設計和基礎物理學——前提是,能讓它可靠地工作。
某些問題需要傳統(tǒng)計算機花費數(shù)十億年才能解決,而量子計算機只需幾個小時即可解決。然而,這些新處理器比傳統(tǒng)處理器更容易受到噪聲的影響。如果我們想讓量子計算機更可靠,尤其是在大規(guī)模情況下,則需要準確識別和糾正這些錯誤。
在發(fā)表在《自然》雜志上的一篇論文中,Google DeepMind和量子AI團隊介紹了AlphaQubit,這是一種基于人工智能的解碼器,能以最先進的精度識別量子計算錯誤。這項合作工作匯集了Google DeepMind機器學習知識和Google Quantum AI糾錯專業(yè)知識,以加速構建可靠量子計算機的進程。
準確識別錯誤是使量子計算機大規(guī)模執(zhí)行長時間計算的關鍵一步,以為科學突破和許多新發(fā)現(xiàn)領域打開大門。
量子計算機基于最小尺度上物質(zhì)的獨特性質(zhì),例如疊加和糾纏,以比傳統(tǒng)計算機少得多的步驟解決某些類型的復雜問題。該技術依賴于量子比特,量子比特可以利用量子干涉篩選大量可能性以找到答案。
量子比特的自然量子態(tài)是脆弱的,可能被各種因素破壞:硬件中的微觀缺陷、熱量、振動、電磁干擾甚至宇宙射線(無處不在)。
量子糾錯通過使用冗余提供了一種解決方法:將多個量子比特分組為單個邏輯量子比特,并定期對其進行一致性檢查。解碼器通過使用這些一致性檢查來識別邏輯量子比特中的錯誤,從而保留量子信息,以便對其進行糾正。
AlphaQubit是一個基于神經(jīng)網(wǎng)絡的解碼器,它借鑒了Transformers——谷歌開發(fā)的深度學習架構,是當今許多大型語言模型的基礎。使用一致性檢查作為輸入,它的任務是正確預測邏輯量子位(在實驗結束時測量時)是否與準備時的狀態(tài)發(fā)生了變化。
Google DeepMind和量子AI團隊首先訓練模型解碼Sycamore量子處理器(量子計算機的中央計算單元)內(nèi)一組49個量子比特的數(shù)據(jù)。為了教會AlphaQubit一般解碼問題,團隊使用量子模擬器在各種設置和錯誤級別中生成數(shù)億個示例。然后,通過為AlphaQubit提供來自特定Sycamore處理器的數(shù)千個實驗樣本,針對特定解碼任務對其進行微調(diào)。
在新Sycamore數(shù)據(jù)上進行測試時,與之前領先的解碼器相比,AlphaQubit樹立了新的準確度標準。在最大規(guī)模Sycamore實驗中,AlphaQubit的錯誤率比張量網(wǎng)絡方法低6%,后者準確度很高,但速度慢得不切實際。AlphaQubit的錯誤率也比Correlated matching低30%,后者是一種準確度高且速度足夠快的解碼器。
多年來,科技公司已向量子計算機投入了數(shù)十億美元,希望量子計算機能改變金融、藥物研發(fā)和物流等各個領域的格局。
從理論上講,量子計算機可以比傳統(tǒng)機器具有巨大的優(yōu)勢。
然而,量子計算機的另一個挑戰(zhàn)者人工智能正在一些最有前景的用例中取得進展。人工智能現(xiàn)在被應用于基礎物理、化學和材料科學。
瑞士聯(lián)邦理工學院計算物理學教授Giuseppe Carleo表示,使用人工智能模擬的量子系統(tǒng)規(guī)模和復雜性正在迅速提高。上個月,他在《科學》雜志上發(fā)表了一篇論文,表明基于神經(jīng)網(wǎng)絡的方法正迅速成為建模具有強量子特性材料的領先技術。Meta最近還推出了一個人工智能模型,該模型在大量新材料數(shù)據(jù)集上進行了訓練,該模型已躍居材料發(fā)現(xiàn)機器學習方法排行榜榜首。
鑒于近期進展的速度,越來越多的研究人員正在詢問,在大規(guī)模量子計算機成為現(xiàn)實之前,人工智能是否可以解決化學和材料科學中的大量問題。
量子計算機的潛力在于,它們能夠比傳統(tǒng)計算機更快執(zhí)行某些計算。要實現(xiàn)這一潛力,需要比我們今天擁有的更大的量子處理器。最大的設備剛剛突破了千量子比特大關,但要獲得對傳統(tǒng)計算機的不可否認的優(yōu)勢,可能需要數(shù)萬甚至數(shù)百萬個量子處理器。然而,一旦有了這樣的硬件,一些量子算法,如破解加密的肖爾算法,就有可能以比傳統(tǒng)算法快得多的速度解決問題。
但對于許多具有更明顯商業(yè)應用的量子算法,如搜索數(shù)據(jù)庫、解決優(yōu)化問題或為人工智能提供動力,速度優(yōu)勢就不那么明顯了。去年,微軟量子計算主管 Matthias Troyer與他人合著的一篇論文表明,如果考慮到量子硬件的運行速度比現(xiàn)代計算機芯片慢幾個數(shù)量級,這些理論上的優(yōu)勢就會消失。將大量經(jīng)典數(shù)據(jù)輸入和輸出量子計算機的難度也是一個主要障礙。
卡內(nèi)基梅隆大學化學教授Olexandr Isayev表示,與大多數(shù)AI應用一樣,最大的瓶頸是數(shù)據(jù)。Meta最近發(fā)布的材料數(shù)據(jù)集由1.18億個分子的DFT計算組成?;诖藬?shù)據(jù)訓練的模型實現(xiàn)了最先進的性能,但創(chuàng)建訓練材料需要大量的計算資源,遠遠超出了大多數(shù)研究團隊所能獲得的資源。這意味著要充分發(fā)揮這種方法的潛力,需要大量投資。
當模擬強關聯(lián)量子系統(tǒng)(粒子相互作用頻繁的系統(tǒng))時,DFT等方法很快就會失效。雖然這些系統(tǒng)更加奇特,但它們包含具有潛在變革能力的材料,例如高溫超導或超精密傳感。但即使發(fā)展如此,人工智能也取得了重大進展。