
Óriás-chiptől az óriási értékelésig
A Cerebras sikerének alapja egy óriási szilíciumlapra épített processzor, a wafer-scale engine (WSE). A harmadik generációs chipjük – amely 4 billió tranzisztort, 900 000 számítási magot és 44 GB memóriát tartalmaz – 58-szor nagyobb, mint a hagyományos, legújabb GPU-k, miközben memóriasávszélessége 2625-szöröse azokénak. Ez a fajta teljesítmény drámaian gyorsabb MI-inferenciát eredményez: nyílt forráskódú modelleknél akár 15-ször gyorsabb válaszidőt kínál az iparági sztenderdekhez képest.
Korábban a gigászi rendszer inkább mérnöki furcsaságnak tűnt, ám az MI-fejlesztések sebesség- és sávszélességigénye mindent megváltoztatott – a Cerebras pedig elsőként szállította le azt a technológiát, amire mindenki várt.
Fellegvárak helyett: az MI az új felhőszolgáltatásokban dübörög
A vállalat az utóbbi időben stratégiai irányváltásba kezdett: saját hardvereladások helyett egyre inkább a felhőalapú inferencia-szolgáltatásra koncentrál, amely már most a bevételek nagy részét generálja. Ezt az átalakulást hatalmas OpenAI-megállapodás gyorsította fel – az MI-labor 20 milliárd dollárért vásárol évekig tartó feldolgozókapacitást, és további 1,25 gigawattnyi kapacitás fejlesztésére is opciót kapott.
A partnerség szorosabb, mint egy hagyományos ügyfél–beszállító viszony: az OpenAI mélyen involválódik a technológiai fejlesztésekbe, miközben akár 11,7 milliárd dollár értékű részvényt is szerezhet – gyakorlatilag ajándékként, ahogy a Cerebras teljesíti a szállításokat. Az együttműködés pillanatok alatt termőre fordult: a Codex Spark (valós idejű kódgeneráló) 35 nap alatt élesben működni kezdett a Cerebras szerverein.
Amazonnal közös támadás: milliókhoz jut el a wafer-tech
2026 márciusában a Cerebras egy újabb stratégiai szövetséget kötött az Amazon Web Services-szel, melynek keretében a Trainium chipek és a Cerebras CS-3 platformja közösen, úgynevezett „diszaggregált inferencia” architektúrában dolgozik. Az előfeldolgozást a Trainium, az MI-válasz generálását a Cerebras végzi, ezzel nagyságrenddel gyorsabb válaszidőt produkálnak, mint a jelenlegi iparági átlag.
A partnerség révén a Cerebras végre hatalmas tömegekhez jut el: az Amazon Bedrock platformján keresztül bárki igénybe veheti a villámgyors feldolgozást, és maga az AWS is jelentős részvényopciókat szerezhet, amelyek vásárlási volumenhez kötötten válnak lehívhatóvá.
Fejben a sivatag: továbbra is kockázat az Emirátusok-függés
A nagy menetelés árnyéka, hogy a vállalat árbevételének jelenleg 86 százaléka továbbra is az Abu Dhabiban működő G42 és a Mohamed bin Zayed University of Artificial Intelligence köré összpontosul – annak ellenére, hogy új nagy ügyfelek is megjelentek. Ez kockázatot hordoz a diverzifikáció szempontjából, és exportengedélyezési és megfelelési kötelezettségeket is eredményez.
A vezetőség ugyanakkor abban bízik, hogy az OpenAI-val és az Amazonnal kialakított mély partnerségek, illetve az olyan új ügyfelek, mint a Jack Dorsey-féle MI-startup (Cash App) vagy az MI-kódolásban élen járó Replit idővel stabilizálják az ügyfélkört.
Versenyfutás az MI-infrastruktúrában – az Nvidia-árnyékkal
A Cerebras fő riválisa továbbra is az Nvidia, amely jelenleg az MI-hardverek piacán a csúcsot uralja. Az Nvidia CUDA-ökoszisztémája lekörözhetetlen előnyt jelent, de az MI-inferencia piacán most kezd megváltozni a helyzet: ezekben az alkalmazásokban a memóriasávszélesség számít igazán, ahol a Cerebras technológiája kiemelkedő.
Nem véletlen, hogy az Nvidia maga is lépett: 2025 decemberében 20 milliárd dollárért felvásárolt egy olyan céget (Groq), amelynek streaming processzorai hasonló logika mentén működnek, mint a wafer-scale engine. Mindeközben a Cerebras globális bővülésre készül: 2025-ben Kanadában 2,2 milliárd dolláros adatközpont-beruházásba kezdtek, hazai és nemzetközi adatközpontokkal.
Gyors növekedés, veszélyes tempóban: a pénzügyi csapdák
A cég három év alatt tízszeresére növelte árbevételét, 2025-ben 237,8 millió dollár nettó nyereséget könyvelt el – igaz, ebben volt egy 363 millió dolláros egyszeri tétel is –, de a valós működési eredmény inkább 75 millió dolláros veszteség. Óriási összegeket égetnek el kutatás-fejlesztésre és marketingre, miközben a beruházások jóval megelőzik a tényleges bevételcsordogálást. Az új üzleti modell, illetve az ügyfelekkel kötött részvényopciós konstrukciók ideiglenesen lenyomják a profitmarzsot.
A legnagyobb kérdés, hogy a piac emésztőképessége lépést tart-e: akár az OpenAI, akár az Amazon évekre (évtizedekre) is lefoglalhatja a teljes kapacitást. Ha viszont a kereslet nem csökken, akkor minden adott, hogy a Cerebras leuralja az MI-inferencia piacát.
Mi jön most? Célszalag helyett új rajtvonal a Cerebrasnak
A történet még csak most kezdődik: a vállalat többszintes technológiai fejlesztési útitervvel, nemzetközi terjeszkedési tervekkel néz a jövőbe, miközben számos rendszer- és pénzügyi kockázattal kell megküzdenie. A piaci értékelés igazolása attól függ, hogy képesek-e olyan tempóban adatközpontokat és wafer-scale chipeket gyártani, amely a vevők igényeit is kielégíti – mindezt egy olyan piacon, ahol mindenki a saját MI-infrastruktúráját építi.
A vezetők optimisták: az, amit a szakma lehetetlennek tartott, most százmilliárdos valósággá vált – és a gigászi, vacsorástányérnyi lapka végre tényleg betörte a gyors MI-inferencia piacát. A történet nem a tőzsdei debütálással ér véget – csak most kezdődik igazán.
