當台大物理系團隊飛到加州,親手測了Google量子晶片Willow——他們發現的東西,比「量子霸權」更有趣
Google的Willow量子晶片號稱在量子糾錯上取得里程碑式突破,但一支台大研究團隊赴美實測後發現,論文中的保真度數據與實際操作環境存在顯著落差。這個發現非但沒有澆熄台灣量子社群的熱情,反而讓幾家新創看見了一條不同的路。
去年十二月,Google端出Willow晶片的那篇論文,我讀了三遍。
不是因為寫得好(其實寫得相當好),而是因為裡面有一個數字讓我反覆確認:105個超導量子位元,在表面碼(surface code)架構下,隨著物理量子位元數量增加,邏輯錯誤率竟然真的在下降。這件事如果為真,代表量子計算領域追了快二十年的「損益平衡點」(break-even point)終於被跨過。整個社群為之沸騰,完全可以理解。
但台大物理系量子資訊實驗室的陳教授團隊(基於學術倫理,此處使用化名)沒有跟著歡呼。他們做了一件更有意思的事——直接飛到加州聖塔芭芭拉,透過Google的合作研究計畫,在實機上跑了一組自己設計的基準測試。
結果?坦白講,令人五味雜陳。
Willow論文報告的雙量子位元閘保真度(two-qubit gate fidelity)達到99.7%。這個數字在量子糾錯的門檻上確實是漂亮的。但台大團隊發現,當他們把電路深度拉長到超過論文中展示的典型範圍、並且在非最佳化的量子位元配對上運行時,實際保真度顯著滑落。部分配對的保真度掉到了99.2%以下——聽起來差距微小,但在量子糾錯的世界裡,這0.5個百分點的差異,足以讓你需要的物理量子位元數量翻倍甚至更多。
這不是在說Google造假。絕對不是。
論文中的數據是真實的,但它們代表的是最佳條件下的表現:精心挑選的量子位元配對、特定的校準窗口、經過最佳化的電路結構。真正的問題在於——這和未來實際運行量子演算法時的工作條件之間,存在一道鴻溝。做過實驗物理的人都懂這件事(說穿了,這就是「demo」跟「product」的老問題,只不過穿了一件低溫物理的外衣)。
有趣的事情發生在這之後。
台大團隊帶著這些數據回到台灣,開始跟幾家本土量子新創密集交流。其中一家專注於量子軟體最佳化的公司——姑且叫它Q公司——看到了一個機會。他們的想法很直接:既然硬體的保真度在實際操作中會退化,那能不能在編譯層和錯誤緩解層做得更聰明,讓同樣的硬體發揮更大效益?
這不是什麼革命性的概念。IBM的Qiskit團隊、Google自己的Cirq框架都在做類似的事。但Q公司的切入點不同——他們利用台大團隊實測取得的噪聲特徵數據(noise profile),針對Willow這類超導架構開發了一套更貼合實際硬體行為的錯誤緩解演算法。初步結果顯示,在特定類型的變分量子演算法(VQE)上,他們的方法能把有效保真度提升到接近論文所宣稱的理想值。
等等,這代表什麼?
代表你不需要自己造晶片,也能在量子計算的競賽中找到位置。台灣半導體產業的優勢人盡皆知,但量子運算的硬體戰場目前被美國和歐洲主導——超導體系靠Google和IBM,離子阱靠IonQ和Quantinuum,光量子靠Xanadu。台灣要從硬體端切入,說實話,短期內機會有限。
但軟體和中介層?那是另一回事了。
這讓我想到一個更根本的問題:我們對「量子霸權」這個敘事是不是太執著了?Google在2019年用Sycamore宣稱量子霸權,選的是一個刻意設計來對古典電腦不利的隨機電路取樣問題。Willow的量子糾錯突破確實更紮實,但離真正能解決實際問題的容錯量子計算(fault-tolerant quantum computing),我們可能還需要數千甚至上萬個邏輯量子位元——而每個邏輯量子位元需要上千個物理量子位元來支撐。以Willow的105個物理量子位元來算,你自己做做乘法。
台大團隊的這趟加州之行,最大的價值不在於「打臉」Google。那太廉價了。它的價值在於提供了一份誠實的參照點——讓我們看清楚,從實驗室裡的漂亮數字到可部署的量子計算之間,路還有多長,而那條路上的每一個坑洞,都可能是某個團隊的機會。
老實說?我比較想看台灣的量子團隊五年後端出什麼東西,而不是再讀另一篇宣稱「里程碑」的矽谷論文。