Az AI energiafaló, de a kutatók már dolgoznak a megoldáson

Az AI energiafaló, de a kutatók már dolgoznak a megoldáson
Ahogy a mesterséges intelligencia modellek komplexitása növekszik, úgy nő az energiaigényük is. 2024 novemberében az amerikai Szövetségi Energiaszabályozási Bizottság (FERC) elutasította az Amazon kérelmét, amelyben 180 megawatt energia közvetlen vásárlását kérte a Susquehanna atomerőműtől egy közeli adatközpont számára. Az indoklás szerint az ilyen közvetlen vásárlás sértené a többi felhasználó érdekeit.

Az AlexNet pillanat

Az energiaigény hirtelen növekedése 2012-ben kezdődött, amikor Alex Krizhevsky, Ilya Sutskever és Geoffrey E. Hinton, a Torontói Egyetem kutatói megalkották az AlexNet nevű konvolúciós neurális hálózatot. A modell több mint 60 millió paraméterrel és 650 ezer neuronnal rendelkezett, ami túl nagy volt ahhoz, hogy egyetlen GPU-n fusson. A kutatók ezért úgy döntöttek, hogy két GPU között osztják meg a terhelést – a neuronok egyik felét az egyik, a másik felét a másik GPU-ra helyezve.

Az AlexNet nemcsak megnyerte a 2012-es ImageNet versenyt, hanem egy jelentős áttörést is hozott: végérvényesen felszabadította az MI-modellek méretét az egyetlen processzor korlátai alól. Ez a szellem vissza már nem térhetett a palackba.

Az egyensúly művészete

Az AlexNet után az MI-modellek képzése egyre több GPU-t igényelt: tízet, százat, majd ezret. Meglepő módon az adatközpontok energiafogyasztása 2010 és 2020 között viszonylag stabil maradt, a hatékonyság folyamatos javulásának köszönhetően. Az Nvidia adatközponti chipjei ebben az időszakban körülbelül tizenötször hatékonyabbá váltak, ami segített ellensúlyozni a növekvő igényeket.

Ez a trend azonban drasztikusan megváltozott a hatalmas nyelvi modellek, például a ChatGPT, 2022-es megjelenésével. “Hatalmas ugrás következett be, amikor a transzformer modellek széles körben elterjedtek,” mondta Mosharaf Chowdhury, a Michigani Egyetem professzora. Bár az Nvidia tovább növelte hatékonyságát, az amerikai adatközpontok energiafogyasztása így is 76 TWh-ról (2018-ban) 176 TWh-ra nőtt 2023-ra.

Az MI életciklusa

A mai nyelvi modellek tízmilliárdnyi neuronnal rendelkeznek, megközelítve vagy akár túlszárnyalva az emberi agy idegsejtjeinek számát. Például a GPT-4 becslések szerint körülbelül 100 milliárd neuronnal, 100 rétegre osztva és több mint 100 billió paraméterrel bír.

A modell betanítása rendkívül számításigényes feladat – az OpenAI állítólag több mint 25 000 Nvidia Ampere 100 GPU-t használt 100 napon át. A becsült energiafelhasználás 50 gigawattóra, ami elegendő egy közepes méretű város egyéves energiaellátásához. A Google által közölt adatok szerint a képzési szakasz a MI-modellek teljes életciklusbeli energiafelhasználásának 40 százalékát teszi ki, míg a fennmaradó 60 százalék a következtetésre (inference) fordítódik.


Az MI modellek karcsúsítása

A növekvő energiafogyasztás arra sarkallta a számítástechnikai közösséget, hogy olyan módszereket dolgozzon ki, amelyek csökkentik a memória- és számítási igényt. “Az egyik megközelítés a számítások mennyiségének csökkentése,” mondta Jae-Won Chung, a Michigani Egyetem kutatója.

Kezdetben a kutatók a nyesést (pruning) alkalmazták, amely a paraméterek számának redukálására irányul. “Fogsz egy nagy modellt, és lepárolod egy kisebbre, a minőség megőrzése mellett,” magyarázta Chung.

Egy másik hatékony technika a kvantálás (quantization), amely során a paraméterek tárolási formátumát optimalizálják. Az MI-modellek rendszerint 32 bites lebegőpontos számokat használnak, de kisebb formátumra váltva csökkenthető a memóriaigény, és gyorsítható a számítás. Az Nvidia szerint a kvantálás-tudatos képzés 29-51 százalékkal mérsékelheti a memóriahasználatot.

Együtt befejezni

A modellek optimalizációján túl az adatközpontok működése is racionalizálható. A képzési feladatok egyenletes elosztása a 25 000 GPU között nem mindig eredményez hatékony működést. “Amikor a modellt 100 000 GPU-ra bontod szét, több dimenzióban kell szétosztani, és nehéz minden darabot pontosan azonos méretűre szabni,” mondta Chung.

Chung rájött, hogy ha a kisebb munkaterheléssel rendelkező GPU-k lassabban működnek, kevesebb energiát fogyasztva, akkor nagyjából egyszerre fejezik be a munkát a nagyobb terhelésű GPU-kkal, amelyek teljes sebességgel futnak. Ennek érdekében kifejlesztette a Perseus nevű szoftvereszközt, amely elemzi a GPU-k munkaterhelést és meghatározza az ideális futási sebességeket.

A Perseust az OpenAI GPT-3 nyilvánosan elérhető verziójának képzésén tesztelték, és az eredmények ígéretesek voltak. “A Perseus akár 30 százalékkal is csökkenthette az egész rendszer energiafogyasztását,” mondta Chung.

A zárt MI probléma

Miközben szakértők és elemzők próbálnak pontos képet alkotni az adatközpontok jövőbeli energiaigényéről, a valós adatok hiánya nehezíti a pontos kalkulációkat. A Lawrence Berkeley Laboratórium becslése szerint az adatközpontok éves energiafelhasználása 2028-ra 325 és 580 TWh között lehet az Egyesült Államokban – ez az ország teljes villamosenergia-fogyasztásának 6,7-12 százaléka.

Az EPRI arra figyelmeztet, hogy a hatás még jelentősebb lehet, mivel az adatközpontok jellemzően koncentrált helyeken működnek. Virginiában az áramfogyasztás 25 százalékát már most az adatközpontok emésztik fel, míg Írországban várhatóan az áramszükséglet egyharmadát fogják felemészteni.

A nagy nyelvi modellek futtatása jelenleg az adatközpontok energiafogyasztásának csupán 12 százalékát teszi ki, de ez változhat, ha olyan cégek, mint a Google, MI-modelleket integrálnak széles körben használt szolgáltatásaikba.

Chowdhury és Chung szerint azonban a nyilvánosság előtt elérhető számadatok gyakran megbízhatatlanok. “Semmit nem tudunk arról, mi zajlik a ChatGPT vagy a Gemini belsejében, mert az OpenAI és a Google sosem tették közzé az energiafogyasztási adataikat,” állítják.

MI-hatékonysági ranglista

A pontos adatok hiányában a ML Energy Initiative csapata saját méréseket végzett. A ZeusMonitor nevű eszközzel különböző GPU-k energiafogyasztását vizsgálták MI-modellek futtatása során.

A legnagyobb tesztelt modell a Meta Llama 3.1 405B volt, 405 milliárd paraméterrel. Ez kérésenként 3352,92 joule energiát fogyasztott két H100 GPU-n futva, ami körülbelül 0,93 wattóra – lényegesen kevesebb, mint a ChatGPT-re becsült 2,9 wattóra.

Ami továbbra is homályos, az a zártkörű modellek, például a GPT-4, a Gemini vagy a Grok teljesítménye. Chung és Chowdhury szerint a legnagyobb kihívást az átláthatóság hiánya jelenti. “Az olyan cégeknek, mint a Google vagy az OpenAI, nincs ösztönzésük arra, hogy felfedjék az energiafogyasztásukat. Sőt, az ilyen számok nyilvánosságra hozatala kárt okozna nekik,” mondta Chowdhury.

A fák az égig nőnek

“Az adatközpontok energiahatékonysága hasonló trendet mutat, mint a Moore-törvény – csak nagyobb léptékben, nem egyetlen chipre vonatkozóan,” mondta Dion Harris, az Nvidia adatközponti termékmarketingért felelős vezetője. Bár a rackek energiafogyasztása nő, a wattónkénti teljesítmény is jelentős javuláson megy keresztül.

Új, forradalmi technológiák is megjelennek a láthatáron. A fotonikus chipek, amelyek elektronok helyett fényt használnak az információ feldolgozására, nagyságrendekkel energiahatékonyabbak lehetnek a jelenlegi GPU-knál, és a neurális hálózatokat akár fénysebességgel is képesek futtatni.

Egy másik ígéretes fejlesztés a 2D-s félvezetők technológiája, amely lehetővé teszi rendkívül apró tranzisztorok építését, amelyek függőlegesen egymásra helyezhetők, ezáltal jelentősen növelve a számítási sűrűséget.

Ahogyan a történelem mutatja, ha valamit hatékonyabbá teszünk, az emberek hajlamosak többet használni belőle. De Chowdhury szerint, ha már nem áll rendelkezésre elegendő energia a fejlődés fenntartásához, a növekedés lelassul. “Az emberek azonban mindig is jók voltak a megoldások megtalálásában,” tette hozzá.

2025, adminboss, arstechnica.com alapján

  • Mit gondolsz, a személyes életünkben hogyan érinthet minket az adatközpontok növekvő energiafogyasztása?
  • Ha te lennél a FERC tagja, milyen alternatív megoldást javasolnál az Amazon kérelmének elutasítása helyett?
  • Szerinted mi lenne a legfontosabb lépés az AI rendszerek energiahatékonyságának javításában?


Legfrissebb posztok

szerda 20:49

A kígyók hőlátása költözik az okostelefonokba

Kínai kutatók olyan mesterséges képrögzítő rendszert fejlesztettek, amelyet a kígyók elképesztő hőlátása inspirált...

szerda 20:34

Az iMac Pro visszatér: most jön az igazi áttörés?

💻 Egy lényeges szempont, hogy újabb kiszivárgott információk szerint az Apple már dolgozik egy új iMac Pro modellen, amelybe valószínűleg az M5 Max lapka kerül...

szerda 20:18

Az ősi méhek döbbenetes titka: fészkek a rágcsálók fogaiban

Különleges felfedezésre bukkantak a tudósok Hispaniola szigetén, ahol egy barlangban több tucatnyi megkövesedett méhfészket találtak rágcsálócsontokban – ezeket egykoron baglyok halmozták fel, miután elfogyasztották zsákmányukat, több mint ötezer évvel ezelőtt...

szerda 20:01

Az ember, aki rendet tesz az MI-képkáoszban

📝 Az MI által generált képek elárasztják az internetet, és az emberek egyre kevésbé tudják eldönteni, mi valódi és mi nem...

szerda 19:51

A OnePlus 15R: óriási kijelző, bivaly akksi, csalódás a kamera

📷 Nehéz elhinni, de kevesebb mint hat héttel az előző OnePlus mobil bemutatója után máris itt az újabb készülék: a OnePlus 15R...

szerda 19:33

A mesterséges intelligencia felzabálja a Föld vizét és áramát 2025-ben

Évről évre nő az MI környezeti terhelése: 2025-re az új kutatások szerint az MI-rendszerek annyi szén-dioxidot bocsátanak ki, mint egész New York városa, és annyi vizet használnak el, mint amennyit az emberek palackozott vízből világszerte elfogyasztanak...

szerda 19:17

Az újabb Firefox-botrány: veszélyes bővítmények vadásznak az adatokra

Több mint egy tucat olyan Firefox-böngészőbővítményt találtak, amelyek titokban hátsó kapukat nyitnak, és figyelik a felhasználók böngészési szokásait...

szerda 19:01

A Coursera bekebelezi az Udemy-t: egyesülnek az e‑learning óriásai

A Coursera bejelentette, hogy részvénycserés ügylet keretében felvásárolja az Udemy-t, így a 900 millió dolláros (kb...

szerda 18:49

Az újabb IIS-baki káoszt hozott a Windows gépeken

⚠ A Microsoft ismét figyelmeztetést adott ki: a vállalati ügyfelek egy része komoly problémákkal szembesülhet a frissített Windows rendszereken, mivel az Internet Information Services (IIS) és a Message Queuing (MSMQ) összeomolhatnak...

szerda 18:34

A Google villámgyors MI-je: itt a Gemini 3 Flash

A Google globálisan elérhetővé tette a Gemini 3 Flash nevű MI-modellt, amely ígéretük szerint legalább olyan gyorsan használható, mint a hagyományos kereső...

szerda 18:17

A Gemini 3 Flash végre turbóra kapcsolja a mesterséges intelligenciát

⚡ Megérkezett a Gemini 3 Flash, a Google új, villámgyors MI-modellje, amely minden eddiginél gyorsabban válaszol, miközben megőrzi csúcskategóriás logikai képességeit...

szerda 18:02

A tőzsdecápák Solanára váltanak: ezért hasít a STKE

📈 A Solana (SOL) elképesztő növekedése mellé egyre többen sorakoznak fel, akik könnyedén, tőzsdén keresztül is részesedni szeretnének a sikerből...

szerda 17:50

Az év nagy dobása a Samsungtól: érdemes hajtogathatóra váltani?

📱 Felmerül a kérdés, hogy miért fordítja a Samsung egyre nagyobb figyelmét az összehajtható telefonokra, miközben a hagyományos készülékek terén eddig is piacvezető volt...

szerda 17:33

Az infláció bezuhant – jöhet a karácsonyi kamatvágás?

🎁 Az Egyesült Királyságban novemberre 3,2%-ra esett vissza az infláció, amely lényegesen alacsonyabb, mint az elemzők által várt 3,5%...

szerda 17:18

A pompeii áldozatok gyapjúköpenyeinek rejtélye: miért haltak így meg?

Új kutatások szerint Pompeii áldozatainak egy része vastag gyapjúköpenyt viselt, amikor a Vezúv kitört, annak ellenére, hogy az esemény augusztus végén, általában forró időben zajlott...

szerda 17:02

Az adatközpontok valódi ára: ki fizeti az áramot?

Érdemes megérteni, hogy az amerikai szenátorok egyre határozottabban követelik a techcégektől: tegyék világossá, hogyan akarják megakadályozni, hogy adatközpont-projektjeik miatt tovább emelkedjenek az áramárak, különösen ott, ahol a lakosság már most is drágán fizet az energiáért...

szerda 16:50

Az agyfejlődés titka: egyetlen génhiba mindent felborít

Régóta foglalkoztatja a kutatókat, miért alakul ki egyes gyerekeknél szokatlanul kicsi agy (mikrokefália)...

szerda 16:34

Közeleg az első Apple Silicon-alapú iMac Pro

💻 Hihetetlen, de mégis igaz: az Apple házon belüli szoftverfrissítései ismét felfedték, min dolgoznak éppen Cupertinóban...

szerda 16:17

A Tesla bajban: Kalifornia megbüntetné az Autopilot miatt

A kaliforniai Közlekedési Hatóság (DMV) komoly lépésre szánta el magát a Tesla ellen: ha a cég nem hagy fel a félrevezető marketinggel, amely túlhangsúlyozza autói önvezető képességeit, akár egy hónapra is felfüggeszthetik a járművek értékesítését az államban...