Google, respektive jeho odnož Google Quantum AI, představil svůj nejnovější kvantový procesor zvaný Willow. Ten disponuje 105 supravodivými fyzickými qubity a vážou se k němu dva podstatné rekordy.
Zaprvé, procesor Willow je v kombinaci s korekčními kódy schopný exponenciálně redukovat kvantové chyby s tím, jak používá více qubitů. A zadruhé, Willow je schopný pod pět minut spočítat RCS úlohu (o ní více později) v takovém rozsahu, že by to nejlepším dnešním superpočítačům zabralo 1025 let.
Google tentokrát ke svým špičkovým výsledkům nepřidává další zbytečné přívlastky, jako je dosažení kvantové výhody nebo nadvlády. Ta zjednodušeně řečeno říká, že kvantový počítač spočítá něco, co běžný stroj ne, případně to ten klasický zvládne za delší dobu.
Je to již pět let, co Google představil svůj první kvantový procesor Sycamore s 56 qubity. Rovnou tehdy oznámil kvantovou nadvládu s tím, že procesor spočítal RCS úlohu za pár minut, zatímco klasický počítač by potřeboval 10 tisíc let. Za pár dní přišla IBM, že danou úlohu na svých superpočítačích umí spočítat za tři dny. A dnes stejnou úlohu, jakou řešil Sycamore, už umíme spočítat v řádu minut i na klasických počítačích. Stejná historie se opakovala u podobného čínského prohlášení o jejich údajné kvantové nadvládě.
Kvantový benchmark
RCS je zkratka z anglického random circuit sampling. Google tuto teoretickou úlohu, která nemá pražádného praktického využití, používá konzistentně. Ale ostatní hráči zase až tak moc ne. Google to ospravedlňuje tím, že se jedná o nejtěžší benchmark pro kvantové počítače. Já bych asi až tak nesouhlasil, například Quantum Volume je ještě těžší, a to až tak, že žádný výrobce supravodivých procesorů s větším množstvím qubitů jej nepoužívá. Druhým argumentem Googlu je, že jakýkoliv kvantový počítač, který by měl dosáhnout kvantové výhody, bude muset nejdříve stejně mít vysoké skóre i pro RCS. S tím se asi dá souhlasit.
Stále můžeme očekávat, že se klasické počítače v RCS budou zlepšovat. Google svůj výsledek porovnával se superpočítačem Frontier (druhý nejrychlejší stroj na světě s výkonem skoro 1,4 exaflopu), a navíc byl i konzervativní a zanedbal různá fyzická omezení klasických počítačů. Například tato úloha je velmi náročná na paměť a i šířka pásma komunikace mezi RAM a CPU hraje roli. Nicméně prezentovaný výsledek na procesorech Willow je tak daleko, že je již reálné, že klasické počítače ty kvantové již nedostihnou.
Logické qubity a potlačení kvantových chyb
Druhá novinka se týká exponenciální redukce kvantových chyb a logických qubitů. Již dávno víme, že jen s fyzickými qubity si nevystačíme. Pro příklad, chybovost jednoqubitových operací je okolo 0,035 procenta. Toho dosáhnou jen ty nejlepší qubity. Jenomže pro praktické výpočty bychom potřebovali dosáhnout chybovost řádově 10-5 procenta a méně. K tomu se jen vylepšováním fyzických qubitů technologicky nedokážeme dostat.
Proto se bavíme o logických qubitech. Jedná se o několik fyzických qubitů s korekčními mechanismy, které se pak tváří jako jeden „logický“ qubit, jenž ideálně má menší chybovost než fyzický qubit. Výzvou však je, že kvantové informace nelze zkopírovat. To znamená, že si nemůžeme vše dělat dvakrát, nebo dělat nějaké zálohy, vůči kterým bychom dva qubity jednoduše porovnali. Proto jsou korekční mechanismy násobně složitější než pro klasické počítače.
V případě supravodivých čipů je nejčastějším mechanismem pro korekci chyb takzvaný surface code. Jedná se o matici fyzických qubitů, která pak, jednoduše řečeno, tvoří jeden logický qubit. V teorii, čím větší matici vezmeme, tím menší chyby bychom měli dosáhnout. Jenomže větší matice znamenají větší počet nedokonalých fyzických qubitů a tím pádem i více chyb v korekčním mechanismu.
Tyto dvě věci jdou přímo proti sobě. To znamená, že u většiny dnešních kvantových počítačů převáží chyby z většího množství qubitů. Avšak Willow se dostal pod tuto mez, kdy s větším počtem qubitů výsledná chyba naopak klesala.
V Googlu experimentálně testovali matice pro surface code 3 × 3, 5 × 5 a 7 × 7 a s každou větší maticí výsledná chyba byla poloviční než před tím. Tedy poloviční chyba s každým krokem ve velikosti matic, tedy s více fyzickými qubity, vlastně znamená exponenciální potlačení kvantových chyb.
Toho se Googlu podařilo dosáhnout díky několika inovacím. Hlavně jde o vylepšení parametrů fyzických qubitů, ale také o korekci kvantových chyb v reálném čase. Vylepšení je i na straně korekčních mechanismů. To je vidět i na obrázku, kde pro matici 7 × 7 použili celý kvantový procesor Willow.
Na dobré cestě, ale brod je ještě daleko
V tomto okamžiku můžeme mluvit o Willow jako o novém králi mezi kvantovými procesory. Zatím byl za ten nejlepší považován model IBM Heron, jenž byl nedávno vylepšen na 156 qubitů. Ačkoliv Heron má více qubitů, jejich kvalita je nižší než kvalita qubitů u Willow. Ten díky tomu dosáhl již výše zmíněných výborných výsledků a rekordů. Škoda je, že Google své kvantové čipy nedává k dispozici širší veřejnosti skrze cloud jako IBM.
Na obrázku je roadmapa Googlu. Firma je na velmi dobré cestě k prvnímu opravdovému logickému qubitu, který má dlouhou dobu koherence, a tedy zvládne miliardy kvantových operací.
Google neprezentoval žádnou kvantovou nadvládu nebo výhodu. Ostatně odborná komunita začíná na tyto pojmy být alergická. Každé marketingové oddělení si tyto věci ohýbá podle sebe. Za to Googlu palec nahoru.
Takže ne, ani Willow nepředstavuje moment, kdy by kvantový procesor byl pro nějaké praktické výpočty lepší než váš laptop. Nicméně Google ukázal cestu, která by měla fungovat, a můj odhad je, že za jeden až tři roky uvidíme první případ kvantové výhody (možná u Googlu, možná u konkurence). To znamená, že kvantový počítač spočítá něco praktického rychleji než klasický superpočítač. Nebude to o moc, ale bude to tam.
Čtenář by po přečtení mohl nabýt dojmu, že teď stačí postavit jen velký kvantový čip s tisíci fyzickými qubity o kvalitě, jako má Willow (nebo lepší), a máme vyhráno. No, ono to tak lehké nebude.
Willow má nyní 105 qubitů. Ke každému qubitu obvykle vedou dva až tři koaxiální kabely pro jeho řízení. Takže, když se podíváte na přiložený obrázek, onen „zlatý lustr“, tedy vnitřek kryogenického chlazení, je opravdu plný kabelů (kvantový čip je relativně docela malý úplně dole). No a třeba pro tisíc qubitů toho potřebujete desetkrát tolik a je potřeba větší kryogenický systém. Samozřejmě je zde i velmi aktivní a poměrně úspěšný směr výzkumu a vývoje pro redukci této kabeláže, bez toho to rozhodně nepůjde.
Dalším problémem může být chladicí médium, tedy helium. To se prakticky přirozeně nevyskytuje (zpravidla se získává jako vedlejší produkt u jaderných zbraní) a konkurentů pro jeho použití jen pro kvantové počítače je hodně. Nejen supravodivé qubity, ale i křemíkové, nebo fotonické kvantové počítače jej potřebují pro vlastní chlazení nebo pro chlazení detektorů.
Tedy jsme na velmi dobré cestě k praktickým kvantovým počítačům, kde právě Google výborně prezentoval, že je schůdná. Nicméně brod, za který se potřebujeme dostat, je ještě daleko.