
Két chip, két világ: Miért osztotta ketté idén a Google a fejlesztéseit?
Míg a legtöbb MI-cég egyetlen csúcschip fejlesztésében gondolkodik, a Google már 2024-ben felismerte, hogy egyszerűen nem elég évente egyetlen hardverrel előállni. A gyorsan változó frontvonalakon – különösen az ügynökök, a következtető modellek és a megerősítéses tanulás terjedésével – két teljesen eltérő problémára kell optimalizálni. A vállalati felhasználók eddig ugyanazokat a gyorsítókat lízingelték mindenféle célra, komoly veszteséget szenvedve el a hatékonyság oltárán. Most először teszi lehetővé maga a hardver, hogy betanításhoz és ügynökökhöz is eltérő optimalizációt használjanak.
TPU 8t: Skálázhatóság a csillagos égig
A TPU 8t (tanítás) a hetedik generációs elődjéhez képest több mint két és félszeres teljesítményt mutat fel a 4 bites lebegőpontos számításban podonként (121 vs. 42,5 EFlops), a kétirányú sávszélességet is megduplázza 19,2 Tb/s-re, de az igazi áttörés a 400 Gb/s-os, négyszeres hálózati összeköttetés. A podok mérete 9 600 chipre nőtt, amit a Google saját 3D Torus topológiája köt össze. Az informatikai vezetők számára a legfontosabb szám, hogy az új, Virgo nevű hálózatnak köszönhetően egyetlen betanításban immár több mint egymillió chipet lehet csatasorba állítani. További újdonság a TPU Direct Storage: az adatokat közvetlenül a Google tárhelyéről mozgatja át nagy sebességű memóriába, kihagyva a processzort, így még gyorsabbá válik a nagy modellek betanítása.
TPU 8i és Boardfly: A másik MI-forradalom
A TPU 8i a valós idejű MI-ügynökök világát célozza, és teljesen új alapokra helyezi a hálózati architektúrát. A teljesítmény éves szinten is drámai: közel tízszeres ugrás a 8 bites lebegőpontos számítás teljesítményében (11,6 vs. 1,2 EFlops podonként), hétszeres memóriakapacitás (331,8 TB vs. 49,2 TB), valamint több mint négyszeresére nőtt podméret (1 152 chip). A Google új Boardfly topológiája radikálisan csökkenti a válaszidőt: a podon belüli chipek közti átlagos ugrások száma visszaesik, így az MI-mintavételezés és a megerősítéses tanulás ötször gyorsabb lehet. Ezenfelül egy központi gyorsítómotor és óriási, a lapkán elhelyezkedő SRAM-memória is hozzájárul ehhez az előnyhöz.
Miért nincs Google-adó, csak Nvidia-adó?
Az MI-ipar kulcsszereplői – például az OpenAI, az Anthropic, az xAI vagy a Meta – kénytelenek az Nvidia hardvereire támaszkodni, így minden egyes megvásárolt H200 vagy Blackwell GPU esetén masszívan megfizetik az Nvidia extraprofitját, amit a szakma csak Nvidia-adónak nevez. A Google ezzel szemben csak a gyártás, csomagolás és fejlesztés költségeit állja, a hardverek végpontjait és a szoftveres MI-infrastruktúrát is maga tervezi. Az MI-verem minden szintje házon belül készül, így a költségek és a teljesítmény is egyedülállóan kontrollálható.
Új szabályok az MI-fegyverkezési versenyben
A következő években a felhőszolgáltatók értékelésekor a vállalatoknak már nem elég csak a számítási teljesítmény címkéit nézniük. Érdemes külön figyelni, hogy mikor milyen GPU‑időablakok nyílnak meg, milyen Virgo-hálózattal érhetők el az új chipek, milyen hatékonysági szerződéseket kínálnak, és mennyire skálázható a memória podonként. Az MI-ügynököket használóknak szintén meg kell nézniük, mekkora a rendszer késleltetése, és mennyi adatablakot kezelnek a chipek. A Gemini Enterprise-felhasználók automatikusan megkapják az új gyorsításokat, így 2026-ra tovább nő az üzembe állítható modellek felső határa.
Később számítani kell arra, hogy a CPU-k is visszaszivárognak az MI-rendszerekbe, igaz, nem gyorsítóként, hanem a virtuális gépek, eszközök, ügynöki környezetek vezérléséhez. Ezenfelül folytatódik a specializáció: a meghatározó MI-feladatokhoz egyre inkább célspecifikus chipekre lesz szükség, és lehet, hogy a jövőben kétnél is több specializált Google-chip jelenik majd meg.
Régen az nyert, aki a legtöbb H100-at tudta beszerezni. Ma már az arat, aki birtokolja az egész MI‑vermet – és ezen a listán egyelőre csak két név áll: Google és Nvidia.
