A Moore-törvény halott – mutatja az Nvidia újabb GPU-útiterve

A Moore-törvény halott – mutatja az Nvidia újabb GPU-útiterve
Jensen Huang, az Nvidia vezérigazgatója már régóta hangoztatja, hogy a Moore-törvény halott. A legutóbbi GTC-konferencián tartott bemutatón azonban kiderült, hogy ez a számítástechnikai törvényszerűség nemcsak halott, hanem mélyen el is van már temetve. Huang nemcsak a cég következő generációs processzorait mutatta be, hanem meglepően részletes információkat osztott meg a következő két generációs számítási platformról is, például egy 600 kW-os rack-rendszerről. Azt is megtudtuk, hogy a 2028-ban érkező GPU-családot Richard Feynmanról nevezik majd el. Szokatlan, hogy a csipgyártók ilyen részletesen felfedik jövőbeli terveiket. Ennek oka egyszerű: az Nvidia akadályokba ütközött, méghozzá nem is egybe, hanem többbe. A legrosszabb pedig az, hogy ezeknek a problémáknak a megoldása – a pénzpumpáláson kívül – nagyrészt kívül esik az Nvidia hatáskörén.

Innentől csak felfelé és kifelé

Az első és legnyilvánvalóbb kihívás a számítási kapacitás skálázásával kapcsolatos. A gyártási folyamatok fejlődése az utóbbi években lelassult. Bár még mindig vannak lehetőségek a fejlesztésre, ezek egyre nehezebbé és költségesebbé válnak.

E korlátokkal szembesülve az Nvidia stratégiája egyszerű: maximalizálni a szilícium mennyiségét minden számítási csomópontban. Jelenleg az Nvidia legsűrűbb rendszerei 72 GPU-t kapcsolnak össze egyetlen számítási tartományban a nagy sebességű, 1,8 TB/s NVLink szövet segítségével. A GTC-n az Nvidia bejelentette, hogy ezt a számot előbb 144-re, majd végül 576 GPU-ra kívánja növelni rackenként. A méretezés azonban nemcsak a rackekben történik, hanem a csipek csomagolásán belül is.

Ez már a Nvidia Blackwell-gyorsítóinak tavalyi bemutatásakor is nyilvánvalóvá vált. A csipek ötszörös teljesítménynövekedést ígértek a Hopperhez képest, ami impozánsan hangzott, egészen addig, amíg ki nem derült, hogy ehhez kétszer annyi die-ra, egy új, 4 bites adattípusra és 500 wattal több energiára volt szükség.

2027-re 600 kW-os rackek érkeznek

Még nem tudjuk, milyen gyártási technológiát tervez az Nvidia a következő generációs csipjeihez, de annyi biztos, hogy a Rubin Ultra folytatja a felskálázás trendjét. Még a TSMC 2 nm-es technológiájától várt körülbelül 20 százalékos hatékonyságnövekedés mellett is ez egy rendkívül forró csipcsomag lesz.

Nemcsak a számítási kapacitás növekszik, hanem a memória is. A Rubinról a Rubin Ultrára való átálláskor jelentős ugrás várható a kapacitásban és a sávszélességben is – 288 GB-ról 1 TB-ra. Ennek körülbelül fele a gyorsabb, nagyobb kapacitású memóriamoduloknak köszönhető, míg a másik fele a memóriára szánt szilícium mennyiségének megduplázódásából ered – a Blackwell és Rubin nyolc moduljáról a Rubin Ultra tizenhat moduljára.

A megnövelt kapacitás lehetővé teszi, hogy az Nvidia több modellparamétert tömörítsen egyetlen csomagba, FP4 formátumban körülbelül 2 billiót, vagy “GPU-nként” 500 milliárdot. A HBM4e memória várhatóan megduplázza a sávszélességet a HBM3e-hez képest. Így a jelenlegi Blackwell  körülbelül 4 TB/s sávszélessége várhatóan 8 TB/s-ra ugrik a Rubin Ultra esetében.

A gigawatt per rack elfogadható felső korlátnak tűnik

A gyártási folyamatok fejlődése nem az egyetlen módja a számítási kapacitás vagy a memória skálázásának. A 16 bitről 8 bitre való áttérés például gyakorlatilag megduplázza a teljesítményt, miközben felére csökkenti egy adott modell memóriaigényét. A probléma azonban az, hogy a Nvidia lassan kifogy a csökkenthető bitszámokból. A Hopperről a Blackwellre történő váltás során négy bitet vettek el, megduplázták a szilícium mennyiségét, és ötszörös lebegőpontos teljesítménynövekedést értek el.

A négy bitnél alacsonyabb precizitás viszont már durva eredményeket produkál az LLM-következtetéseknél, jelentősen emelkedő perplexitás-pontszámokkal. Ugyanakkor érdekes kutatások zajlanak a szuper alacsony precizitású kvantálás terén, akár 1,58 bitig, miközben megőrzik a pontosságot.

Mindenesetre az Nvidia stratégiája egyértelmű: a számítási platformok egyre nagyobbak, sűrűbbek, forróbbak és energiaéhesebbek lesznek a jövőben. Ahogyan Huang fogalmazott a múlt heti sajtótájékoztatón, a limit itt az, hogy mennyi energiát tudsz beletáplálni egy rackbe.

“Egy adatközpont jelenleg 250 megawatt. Ez valamiféle korlát rackenként. A többi csak részletkérdés” – mondta Huang. “Azt mondanám, hogy a gigawatt per rack jó határnak tűnik.”


Az energiaproblémát nem lehet megkerülni

Természetesen a 600 kW-os rackek hatalmas fejfájást okoznak az adatközpont-üzemeltetőknek. Az ultra-sűrű számítási kapacitás hűtése, amely már megawattokban mérhető, nem új kihívás. Ami megváltozott, az az, hogy itt most nem néhány apró klaszterről beszélünk évente, hanem tucatnyiról, amelyek közül néhány elég erős ahhoz, hogy letaszítsa a világ legerősebb szuperszámítógépeit a trónról.

Ezeknél a méretekben a nagyon specializált, kis volumenű hőkezelési és energiaellátási rendszerek egyszerűen nem elégségesek. Sajnos az adatközpont-forgalmazók – akik azokat a nem éppen izgalmas alkatrészeket árulják, amelyek nélkül a több millió dolláros NVL72 rackek nem működnének – csak most kezdik magukat utolérni az igények terén.

Ez lehet az oka annak, hogy a bejelentett Blackwell-telepítések többségét a léghűtéses HGX B200-ra tervezték, nem az NVL72-re, amelyet Huang kitartóan reklámoz. Az HGX rendszerek – nyolc GPU-val – sok meglévő H100 környezetben telepíthetők.

Az NVL72 egy teljes rackméretű kialakítás, amelyet jelentősen a hiperskálázók ihlettek, DC-buszokkal, tápegység-szánokkal és elöl kivezetett hálózattal. 120 kW folyadékhűtéses számítási teljesítményével több ilyen telepítése egy meglévő létesítményben gyorsan problematikussá válik. És ahogy megjósolható, ez még nehezebbé válik, amikor az Nvidia 600 kW-os “szörnyrackjei” 2027 végén debütálnak.

A vezetőt követni kell

Fontos tisztázni, hogy ezek az akadályok nemcsak az Nvidiára vonatkoznak. Az AMD, az Intel és minden más felhőszolgáltató vagy csiptervező, amely az Nvidia piaci részesedéséből szeretne kihasítani egy szeletet, hamarosan ugyanezekkel a problémákkal találja szemben magát.

Ennek a kihívásnak azonban előnyei is vannak. Az Nvidia egyedülálló helyzetben van ahhoz, hogy meghatározza a jövőbeli adatközpontok energia- és hőtechnikai szabványait.

Ahogy Huang korábban is elmondta, hajlandó volt felfedni a következő három GPU-generációt, sőt utalni a negyedikre is, hogy infrastruktúrális partnereik megfelelően felkészülhessenek.

“Azért ismertettem a világgal az Nvidia következő három-négy éves útitervét, hogy mostantól mindenki más is ennek megfelelően tervezhessen” – mondta Huang.

Másrészt ezek az erőfeszítések egyengetik az utat a konkurens csipgyártók számára is. Ha az Nvidia megtervez egy 120 kW-os vagy most már 600 kW-os rack-et, és a kolokációs szolgáltatók, valamint a felhőüzemeltetők hajlandóak támogatni azt, akkor az AMD vagy az Intel is nyugodtan beépítheti ugyanezt a teljesítményszintet a saját rackjeikbe anélkül, hogy aggódnának, hol állítják majd üzembe azokat a megrendelők.

2025, adminboss, go.theregister.com alapján

  • Mit gondolsz az Nvidia jövőbeli terveiről?
  • Hogyan látod a technológiai fejlődés hatásait a környezetre?
  • Mennyire tartod fenntarthatónak az egyre nagyobb energiaigényű rendszereket?
  • Mit tennél a helyükben a versenytársak?
  • Mennyire fontos a nyílt kommunikáció a technológiai iparban?
  • Hogyan befolyásolhatja a társadalmat az ilyen mértékű számítási kapacitás?




Legfrissebb posztok