Přeskočit na hlavní obsah

Výhled do budoucnosti a směr vývoje

Dosud jsme se seznámili s motivací pro využití jak vysokovýkonného počítání (HPC), tak kvantového počítání při řešení vědeckých problémů. Definovali jsme klasické a kvantové výpočetní zdroje, včetně CPU, GPU a QPU, a diskutovali jsme o tom, jak je škálovat a spravovat pomocí technik jako vertikální a horizontální škálování, plánování úloh a správa pracovní zátěže. Dále jsme prozkoumali programovací modely jak pro QPU (jako jsou kvantové Circuit a primitiva jako Sampler a Estimator), tak pro klasické počítače, včetně praxe paralelního programování s MPI, což je mocný nástroj kvantově-klasického heterogenního výpočetního prostředí. Nakonec jsme studovali a procvičovali pokročilé kvantové algoritmy založené na vzorkování, jako je Sample-based Quantum Diagonalization (SQD) a Sample-based Krylov Quantum Diagonalization (SKQD). Tyto algoritmy využívají metodu podprostoru k přesnému odhadu energie základního stavu molekul a materiálů přípravou a vzorkováním kvantových stavů, které definují podprostor pro klasickou diagonalizaci — kombinaci různých programovacích modelů na sadě heterogenních zdrojů. S těmito základními koncepty kvantového a klasického superpočítání už nemluvíme o tom, že jedno nahradí druhé, ale o vytvoření výkonného integrovaného systému, který pracuje v synergi — kombinace, která je připravena přinést úsvit kvantové výhody.

Proč právě teď?

Komunita již překonala milník „kvantové užitečnosti" — kdy kvantové počítače poprvé prokázaly, že jsou užitečnými vědeckými nástroji schopnými výpočtů nad rámec klasické simulace hrubou silou. Tato éra užitečnosti začala nyní proslulým článkem o užitečnosti na titulní straně časopisu Nature v roce 2023 a pokračovala desítkami publikací od partnerů, klientů a výzkumníků z IBM Quantum®. Nyní se pozornost přesunula na další klíčovou hranici: dosažení kvantové výhody. Dlouhou dobu trpěl pojem „kvantová výhoda" nepřesnými definicemi. Tento článek předložil konkrétní definici, kterou zde budeme používat. Konkrétně, kvantová výhoda označuje provedení úlohy zpracování informací na kvantovém hardwaru, která splňuje dvě základní kritéria:

i) Správnost výstupu lze přísně ověřit a

ii) je provedena s kvantovým oddělením, které prokazatelně nabízí vyšší efektivitu, nákladovou efektivnost nebo přesnost, než jaké lze dosáhnout pouze klasickým výpočtem.

Předpokládá se, že kvantová výhoda se začne prosazovat do konce roku 2026 a že se tak stane prostřednictvím kombinace kvantových a HPC zdrojů. Tato lekce načrtává základní vizi tohoto nového paradigmatu, podrobně popisuje klíčové myšlenky pro budoucnost a představuje výhled do budoucna založený na ověřitelném, platformově nezávislém rámci pro demonstraci a realizaci skutečné kvantové výhody.

5.1 Velký obraz

Poprvé jsme svědky zásadního zlomového bodu v dějinách výpočetnictví — éry kvantově-centrického superpočítání (QCSC), nově vznikajícího paradigmatu, které těsně integruje kvantové procesory (QPU) s klasickými superpočítači. Vize nespočívá v tom, aby kvantové systémy nahradily klasické, ale aby prokázaly, že tato heterogenní architektura — kde „kvantum plus klasika" může překonat pouze klasiku — je nejvýkonnější cestou vpřed. V tomto modelu jsou QPU zamýšleny jako specializované ko-procesory, které pracují vedle CPU a GPU a řeší výpočetní problémy, které jsou pro klasické počítače nezvladatelné.

Plný potenciál této nové architektury lze realizovat pouze tím, že tyto mocné nástroje dáme do rukou co největšímu počtu uživatelů. Tato vize se již uskutečňuje prostřednictvím nasazení kvantových systémů v zavedených centrech vysokovýkonného výpočetního prostředí (HPC) a vývoje softwaru, jako jsou kvantové pluginy pro Slurm, které zjednodušují jejich integraci do stávajících klasických pracovních postupů. Tím, že zpřístupníme tyto heterogenní systémy širší výzkumné komunitě, vytváříme prostředí potřebné pro inovace a objevy.

Tato strategie kombinování integrované technologie s rozsáhlou uživatelskou základnou je to, jak věříme, že komunita dosáhne kvantové výhody v blízké budoucnosti. Kvantová výhoda není jediným definitivním milníkem, ale procesem — sledem stále robustnějších demonstrací, které budou prověřovány, reprodukovány a zpochybňovány komunitou, dokud nebude dosaženo vědeckého konsenzu. To je cesta k demonstraci, do konce roku 2026, prvních věrohodných a ověřitelných případů, kdy tento nový způsob výpočtu řeší praktické problémy efektivněji, nákladověji efektivněji nebo přesněji, než jaké lze dosáhnout pouze klasickým výpočtem.

Diagram znázorňující náklady na simulace jako funkci rostoucí složitosti Circuit pro klasické i kvantové počítače s mitigací chyb. Jakmile se křivky kříží, prostor mezi nimi odpovídá kvantové výhodě.

Velké myšlenky

K realizaci této vize je třeba řešit několik klíčových otázek a myšlenek.

  • Optimální rozdělení pracovní zátěže: Na softwarové straně spočívá výzva ve správě složitých hybridních pracovních postupů. Orchestrace bezproblémového provádění úloh napříč kvantovými i klasickými zdroji vyžaduje sofistikované nástroje. To zahrnuje Quantum-HPC Middleware a Runtime infrastrukturu navrženou pro zpracování plánování úloh, správy zdrojů a toku dat v tomto heterogenním prostředí. Dále je pro maximalizaci využití dnešního kvantového hardwaru zásadní rozvoj technik pro efektivní paralelizaci kvantových Circuit nebo jejich rozdělení na menší, zvládnutelné části.

  • Odolnost vůči chybám na úrovni systému: Konečným řešením pro ochranu kvantových informací před šumem je výpočet tolerantní vůči chybám (FTQC), kde jsou informace zakódovány do robustních „logických Qubitů". Zatímco nově vznikající kódy pro korekci chyb kvantového nízkohustotního paritního kontrolního kódu (qLDPC) nabízejí cestu ke snížení obrovské zdrojové režie, implementace plné odolnosti vůči chybám se v bezprostřední blízké budoucnosti neočekává jako životaschopná. Zároveň mitigace chyb využívá klasické následné zpracování ke snížení nebo eliminaci zkreslení ve výpočtech způsobených šumem, což je také kritický prvek při dosahování systémové odolnosti vůči chybám kvantových systémů. Výkonné metody mitigace chyb jsou již nasazovány jako služba, což demonstruje sílu architektury QCSC. Například:

  • Demokratizace přístupu: Zpřístupnění těchto mocných hybridních systémů co nejširšímu okruhu uživatelů je klíčem k urychlení inovací. To se již realizuje fyzickým nasazením kvantových systémů v HPC centrech a vydáním pluginů pro Slurm pro zjednodušenou integraci. Pro zjednodušení této integrace obě společnosti vydaly pluginy pro Slurm, takže kvantové pracovní zátěže lze spravovat standardními HPC plánovači. Dále komplexní softwarové stacky jako Qiskit poskytují cloudové runtime prostředí pro kvantové Circuit s nízkou latencí, orchestraci složitých hybridních úloh a nástroje pro kompilaci, optimalizaci a mitigaci chyb. Open-access kvantový hardware a open-source vývojové balíčky nepochybně sehrají klíčovou roli.

Výhled IBM do budoucnosti

IBM Quantum Development Roadmap je dobrým příkladem tohoto velkého obrazu a těchto velkých myšlenek.

IBM Quantum Development Roadmap

Hardwarová mapa IBM Quantum je řízena zaměřením na zvyšování rozsahu a konektivity Qubitů. Série Nighthawk (2025–2028) využívá novou architekturu čtvercové mřížky pro vylepšení konektivity, zatímco procesor Loon (2025) zavádí „c-couplery" umožňující nelokální konektivitu Qubitů, což je klíčové pro výpočty tolerantní vůči chybám (FTQC). Tato mapa vrcholí systémy IBM Quantum Starling (2029) a Blue Jay (2033+), které jsou navrženy k poskytování rozsáhlých výpočtů tolerantních vůči chybám s miliony Gate a tisíci logických Qubitů.

Strategie softwaru a middlewaru je postavena na čtyřech klíčových cílech: přesné provádění, orchestrace pracovních zátěží, objevování nových algoritmů a jejich aplikace na konkrétní případy použití. Mapa zahrnuje průběžná zlepšení, jako jsou dynamické Circuit v měřítku užitečnosti (2025) a nové profilovací nástroje (2026) pro zajištění efektivního provádění. Pro orchestraci pracovních zátěží C-API (2025) a budoucí akcelerátory pracovních postupů (2027) integrují kvantové a klasické vysokovýkonné výpočetní prostředí (HPC). Kromě toho IBM® představí nástroje pro mapování užitečnosti (2026) a nové knihovny Circuit (2029) pro usnadnění objevování a aplikace nových algoritmů.

Shrnutí

Prozkoumali jsme velké obrazy a velké myšlenky za cílem QCSC a podívali jsme se na plán IBM v oblasti vývoje a inovací kvantového počítání. Tato cesta, jak jsme viděli, je maraton, nikoli sprint. Zatímco IBM je odhodlána dodávat stále výkonnější kvantové počítače, náš pokrok je pouze jednou částí rovnice. Je zásadní, aby kvantová komunita nadále vyvíjela nové algoritmy a připravovala tak půdu pro aplikace, které skutečně přinesou užitečné kvantové počítání světu.

K dosažení tohoto cíle musíme spolupracovat. To znamená zavést standardizované benchmarkingové problémy s pomocí klasických odborníků, aby byla zajištěna relevance a férovost. Vyžaduje to také publikování podrobných metodologií a datových sad umožňujících reprodukovatelnost a udržování veřejně přístupných leaderboardů pro sledování našeho kolektivního pokroku.

Nikdy nebylo vzrušivější doby být součástí této komunity. Přijetím těchto osvědčených postupů a pokračováním v našem zkoumání můžeme společně pracovat na realizaci plného potenciálu kvantové výhody.