
A Jupiter felépítése és képességei
A Jupitert az Eviden cég építette, és Nvidia Grace Hopper GH200 szuperchipek hajtják, amelyeket a Jupiter Booster részlegben helyeztek el. Ebben a szegmensben közel 6 000 BullSequana XH3000 csomópont dolgozik, mindegyikben négy GH200 chip, vagyis összesen körülbelül 24 000 chip szolgálja ki a számítási igényeket. Ez a rész önmagában is képes 872 petaFLOPS (vektoros) és akár 1,6 exaFLOPS (mátrixos) teljesítményre.
Különösen fontos kiemelni, hogy a Jupiter fejlesztése még nem zárult le. A szuperszámítógép következő fázisában a kisebb, CPU-alapú Universal Cluster nevű rész is bekapcsolódik, amelyet a francia SiPearl Rhea1 processzoraival szerelnek fel. Ezek a chipek 80 Arm Neoverse V1 magot és 64 GB nagy sávszélességű memóriát tartalmaznak, a teljes klaszter 1 300 csomóponton 2 600 processzort fog működtetni, további öt petaFLOPS teljesítményt hozzáadva.
Előnyök, kihívások és nemzetközi verseny
Elképzelhető, hogy a Jupiter hamarosan megelőzi az USA-beli Aurora szuperszámítógépet, így a világ harmadik leggyorsabb gépe lesz a TOP500 ranglistán. Ehhez csak pár petaFLOPS teljesítménynövekedés szükséges, amivel felzárkózhat az amerikai élmezőnyhöz. Külön említést érdemel, hogy Kína valószínűleg szintén rendelkezik több exascale géppel, de ezekről egyre kevesebb információt hoznak nyilvánosságra.
A szuperszámítógépek között folyamatos optimalizációk zajlanak, amelyek jelentősen növelik a teljesítményt. Az amerikai El Capitan például legutóbbi finomhangolásával 67 petaFLOPS többlettel 1,809 exaFLOPS-ra növelte számítási erejét. Az Oak Ridge-i Frontier gép két év alatt további 250 petaFLOPS-ot nyert, jelenleg 1,35 exaFLOPS-ra képes, és a világ második leggyorsabb rendszere.
A csúcsranglista és mérési módszerek
A HPL-teszt továbbra is a legfőbb mérce a szuperszámítógépek teljesítményének értékelésére. A legfrissebb eredmények szerint az első négy helyezett:
1. El Capitan – 1 809 petaFLOPS (29 685 kW teljesítményfelvétel mellett)
2. Frontier – 1 353 petaFLOPS
3. Aurora – 1 012 petaFLOPS
4. Jupiter Booster – 1 000 petaFLOPS (15 794 kW)
Az európai versenytársnak tehát sikerült belépnie a szuperszámítógépes sztratoszférába.
Új irányok a szuperszámítógépek világában
Ennek alapján megállapítható, hogy nemcsak a nyers számítási teljesítmény a döntő: egyre fontosabbá válnak az alternatív tesztek, amelyek valóban mérik a valós, gyakorlati teljesítményt is. A High-Performance Conjugate Gradients (HPCG) benchmark például csak 17,41 petaFLOPS-ot mér El Capitan esetében, szemben a HPL szerinti ezer feletti értékkel. Ez rávilágít arra, hogy a szoftveroptimalizálás és a különféle adattípusok – főleg a 16 és 8 bites precízió – kulcsfontosságúak az új tudományos eredmények gyors elérésében. Az MI használatának fellendülése miatt ezek a vegyes precíziójú számítások egyre elterjedtebbek, hiszen jelentősen gyorsíthatják az időérzékeny alkalmazásokat, például a klímaváltozás vagy természeti katasztrófák előrejelzését.
Mindezt jól mutatja a HPL-MxP benchmark: itt vegyes precízióban az El Capitan 16,7 exaFLOPS-t, az Aurora 11,6 exaFLOPS-t, a Jupiter pedig 6,25 exaFLOPS-t teljesít.
A jövő: MI-re optimalizált szuperszámítógépek
Elképzelhető, hogy néhány éven belül már nem is a hagyományos számítási teljesítmény lesz az elsődleges értékmérő a szuperszámítógépek között, hanem az, hogy milyen hatékonyan használják a különböző precíziójú adatokat az MI által hajtott kutatásokhoz. Az USA, Európa és Ázsia versengése egyre inkább arról szól majd, hogy ki tudja a leghatékonyabban összekapcsolni a hardvert, a szoftvert és az MI-t a tudományos áttörések felgyorsítása érdekében.
