
Más megközelítésben: Mi az újítás lényege?
A klasszikus számítógépek elektromossággal működtetik a biteket, míg a kvantumszámítógépekben a qubitek kvantumállapotait manipulálják. Az új, 14/15-ös architektúra nevét a periódusos rendszer 14. (szilícium) és 15. (foszfor) elemeiről kapta. A kutatók foszforatomokat helyeznek el tiszta szilíciumostyákban, olyan pontossággal, hogy a kötési távolság csupán 0,13 nanométer. Ez két nagyságrenddel kisebb, mint amit a világ legfejlettebb (például a TSMC) chipgyártói elérnek, és páratlan precizitást biztosít.
Nemcsak az atomok elrendezése forradalmi, hanem az is, ahogyan ez az architektúra masszívan skálázható – vagyis elvileg akár milliós nagyságrendű qubitszám is összehangoltan működtethető, ezzel hosszú távon megvalósítható a hibamentes, nagy teljesítményű kvantumprocesszor.
Hibák legyőzése: kulcs a kvantumskálázódáshoz
A kvantumszámítógépek egyik legnagyobb akadálya a hibajavítás szükségessége. A qubitek rendkívül érzékenyek mindenféle zavarokra – hő, elektromágneses hullámok, vagy akár csekély környezeti zaj hatására is tönkremehet az információ (összefonódás megszűnése, szuperpozíció összeomlása). Ezért a hagyományos rendszerekben rengeteg qubitet kell áldozni a hibák ellensúlyozására.
Az SQC architektúrájában a nukleáris spin stabilitása miatt gyakorlatilag elhanyagolható az úgynevezett bitflip-hiba. Ezért a szükséges hibajavító kódok is sokkal egyszerűbbek és jóval kevesebb fizikai qubitet igényelnek, vagyis a rendszer kompaktabb, energiaigénye is kisebb. A kutatók szerint ez jelentős előnyt jelent a jelenlegi riválisokkal (például a Google és az IBM) szemben, ahol a qubitek instabilabbak, így a hibajavítás aránya nagyobb.
Verseny a Grover-algoritmus legyőzéséért
A kvantumszámítógépes rendszerek pontosságának szokásos mércéje a Grover-algoritmus, amely azt vizsgálja, mennyivel tud egy kvantumszámítógép gyorsabban megoldani bizonyos keresési feladatokat, mint egy klasszikus gép. Ezen a teszten a világelső SQC-chip 98,9%-os hűségi arányt ért el, mindenféle hibajavítás alkalmazása nélkül. Más megközelítésben: míg a nagy riválisok – a Google és az IBM – rendszerei több tucat vagy akár több száz qubitet használnak, az SQC négyqubites klasztere is csúcsot döntött ebben a kritikus próbában.
A következmények beláthatatlanok lehetnek, hiszen ha a jelenlegi prototípus valóban skálázható milliós qubitszámig, akkor egy teljesen új korszak kezdődhet a kvantumszámítógép-fejlesztésben. Igaz, a további bővítés során még sok kihívással kell szembenézni, az energiafogyasztástól a műszaki infrastruktúráig, de a hibajavításra fordított számítási és hardverkapacitás drasztikusan csökkenthető.
Nemcsak pontosság, hanem jövőbiztosság
Az SQC kutatói szerint rendszerük „hibaszegénynek” mondható – vagyis már most is kevesebb erőforrást igényel az adatok védelméhez, mint riválisai. A jövőben persze mindenki kénytelen lesz hibajavítást alkalmazni a nagyobb rendszerekben, de itt a szükséges qubitszám sokkal alacsonyabb lesz, ami leegyszerűsíti az egész fizikai konstrukciót és csökkenti a teljesítményigényt. A kvantumszámítástechnika versenye most új lendületet kaphat, és ha a szilícium–foszfor architektúrára épülő processzorok valóban bővíthetővé válnak, az információtechnológiai forradalom új fejezete nyílhat meg előttünk – éppen most.
