Az AI energiafaló, de a kutatók már dolgoznak a megoldáson

Az AI energiafaló, de a kutatók már dolgoznak a megoldáson
Ahogy a mesterséges intelligencia modellek komplexitása növekszik, úgy nő az energiaigényük is. 2024 novemberében az amerikai Szövetségi Energiaszabályozási Bizottság (FERC) elutasította az Amazon kérelmét, amelyben 180 megawatt energia közvetlen vásárlását kérte a Susquehanna atomerőműtől egy közeli adatközpont számára. Az indoklás szerint az ilyen közvetlen vásárlás sértené a többi felhasználó érdekeit.

Az AlexNet pillanat

Az energiaigény hirtelen növekedése 2012-ben kezdődött, amikor Alex Krizhevsky, Ilya Sutskever és Geoffrey E. Hinton, a Torontói Egyetem kutatói megalkották az AlexNet nevű konvolúciós neurális hálózatot. A modell több mint 60 millió paraméterrel és 650 ezer neuronnal rendelkezett, ami túl nagy volt ahhoz, hogy egyetlen GPU-n fusson. A kutatók ezért úgy döntöttek, hogy két GPU között osztják meg a terhelést – a neuronok egyik felét az egyik, a másik felét a másik GPU-ra helyezve.

Az AlexNet nemcsak megnyerte a 2012-es ImageNet versenyt, hanem egy jelentős áttörést is hozott: végérvényesen felszabadította az MI-modellek méretét az egyetlen processzor korlátai alól. Ez a szellem vissza már nem térhetett a palackba.

Az egyensúly művészete

Az AlexNet után az MI-modellek képzése egyre több GPU-t igényelt: tízet, százat, majd ezret. Meglepő módon az adatközpontok energiafogyasztása 2010 és 2020 között viszonylag stabil maradt, a hatékonyság folyamatos javulásának köszönhetően. Az Nvidia adatközponti chipjei ebben az időszakban körülbelül tizenötször hatékonyabbá váltak, ami segített ellensúlyozni a növekvő igényeket.

Ez a trend azonban drasztikusan megváltozott a hatalmas nyelvi modellek, például a ChatGPT, 2022-es megjelenésével. “Hatalmas ugrás következett be, amikor a transzformer modellek széles körben elterjedtek,” mondta Mosharaf Chowdhury, a Michigani Egyetem professzora. Bár az Nvidia tovább növelte hatékonyságát, az amerikai adatközpontok energiafogyasztása így is 76 TWh-ról (2018-ban) 176 TWh-ra nőtt 2023-ra.

Az MI életciklusa

A mai nyelvi modellek tízmilliárdnyi neuronnal rendelkeznek, megközelítve vagy akár túlszárnyalva az emberi agy idegsejtjeinek számát. Például a GPT-4 becslések szerint körülbelül 100 milliárd neuronnal, 100 rétegre osztva és több mint 100 billió paraméterrel bír.

A modell betanítása rendkívül számításigényes feladat – az OpenAI állítólag több mint 25 000 Nvidia Ampere 100 GPU-t használt 100 napon át. A becsült energiafelhasználás 50 gigawattóra, ami elegendő egy közepes méretű város egyéves energiaellátásához. A Google által közölt adatok szerint a képzési szakasz a MI-modellek teljes életciklusbeli energiafelhasználásának 40 százalékát teszi ki, míg a fennmaradó 60 százalék a következtetésre (inference) fordítódik.


Az MI modellek karcsúsítása

A növekvő energiafogyasztás arra sarkallta a számítástechnikai közösséget, hogy olyan módszereket dolgozzon ki, amelyek csökkentik a memória- és számítási igényt. “Az egyik megközelítés a számítások mennyiségének csökkentése,” mondta Jae-Won Chung, a Michigani Egyetem kutatója.

Kezdetben a kutatók a nyesést (pruning) alkalmazták, amely a paraméterek számának redukálására irányul. “Fogsz egy nagy modellt, és lepárolod egy kisebbre, a minőség megőrzése mellett,” magyarázta Chung.

Egy másik hatékony technika a kvantálás (quantization), amely során a paraméterek tárolási formátumát optimalizálják. Az MI-modellek rendszerint 32 bites lebegőpontos számokat használnak, de kisebb formátumra váltva csökkenthető a memóriaigény, és gyorsítható a számítás. Az Nvidia szerint a kvantálás-tudatos képzés 29-51 százalékkal mérsékelheti a memóriahasználatot.

Együtt befejezni

A modellek optimalizációján túl az adatközpontok működése is racionalizálható. A képzési feladatok egyenletes elosztása a 25 000 GPU között nem mindig eredményez hatékony működést. “Amikor a modellt 100 000 GPU-ra bontod szét, több dimenzióban kell szétosztani, és nehéz minden darabot pontosan azonos méretűre szabni,” mondta Chung.

Chung rájött, hogy ha a kisebb munkaterheléssel rendelkező GPU-k lassabban működnek, kevesebb energiát fogyasztva, akkor nagyjából egyszerre fejezik be a munkát a nagyobb terhelésű GPU-kkal, amelyek teljes sebességgel futnak. Ennek érdekében kifejlesztette a Perseus nevű szoftvereszközt, amely elemzi a GPU-k munkaterhelést és meghatározza az ideális futási sebességeket.

A Perseust az OpenAI GPT-3 nyilvánosan elérhető verziójának képzésén tesztelték, és az eredmények ígéretesek voltak. “A Perseus akár 30 százalékkal is csökkenthette az egész rendszer energiafogyasztását,” mondta Chung.

A zárt MI probléma

Miközben szakértők és elemzők próbálnak pontos képet alkotni az adatközpontok jövőbeli energiaigényéről, a valós adatok hiánya nehezíti a pontos kalkulációkat. A Lawrence Berkeley Laboratórium becslése szerint az adatközpontok éves energiafelhasználása 2028-ra 325 és 580 TWh között lehet az Egyesült Államokban – ez az ország teljes villamosenergia-fogyasztásának 6,7-12 százaléka.

Az EPRI arra figyelmeztet, hogy a hatás még jelentősebb lehet, mivel az adatközpontok jellemzően koncentrált helyeken működnek. Virginiában az áramfogyasztás 25 százalékát már most az adatközpontok emésztik fel, míg Írországban várhatóan az áramszükséglet egyharmadát fogják felemészteni.

A nagy nyelvi modellek futtatása jelenleg az adatközpontok energiafogyasztásának csupán 12 százalékát teszi ki, de ez változhat, ha olyan cégek, mint a Google, MI-modelleket integrálnak széles körben használt szolgáltatásaikba.

Chowdhury és Chung szerint azonban a nyilvánosság előtt elérhető számadatok gyakran megbízhatatlanok. “Semmit nem tudunk arról, mi zajlik a ChatGPT vagy a Gemini belsejében, mert az OpenAI és a Google sosem tették közzé az energiafogyasztási adataikat,” állítják.

MI-hatékonysági ranglista

A pontos adatok hiányában a ML Energy Initiative csapata saját méréseket végzett. A ZeusMonitor nevű eszközzel különböző GPU-k energiafogyasztását vizsgálták MI-modellek futtatása során.

A legnagyobb tesztelt modell a Meta Llama 3.1 405B volt, 405 milliárd paraméterrel. Ez kérésenként 3352,92 joule energiát fogyasztott két H100 GPU-n futva, ami körülbelül 0,93 wattóra – lényegesen kevesebb, mint a ChatGPT-re becsült 2,9 wattóra.

Ami továbbra is homályos, az a zártkörű modellek, például a GPT-4, a Gemini vagy a Grok teljesítménye. Chung és Chowdhury szerint a legnagyobb kihívást az átláthatóság hiánya jelenti. “Az olyan cégeknek, mint a Google vagy az OpenAI, nincs ösztönzésük arra, hogy felfedjék az energiafogyasztásukat. Sőt, az ilyen számok nyilvánosságra hozatala kárt okozna nekik,” mondta Chowdhury.

A fák az égig nőnek

“Az adatközpontok energiahatékonysága hasonló trendet mutat, mint a Moore-törvény – csak nagyobb léptékben, nem egyetlen chipre vonatkozóan,” mondta Dion Harris, az Nvidia adatközponti termékmarketingért felelős vezetője. Bár a rackek energiafogyasztása nő, a wattónkénti teljesítmény is jelentős javuláson megy keresztül.

Új, forradalmi technológiák is megjelennek a láthatáron. A fotonikus chipek, amelyek elektronok helyett fényt használnak az információ feldolgozására, nagyságrendekkel energiahatékonyabbak lehetnek a jelenlegi GPU-knál, és a neurális hálózatokat akár fénysebességgel is képesek futtatni.

Egy másik ígéretes fejlesztés a 2D-s félvezetők technológiája, amely lehetővé teszi rendkívül apró tranzisztorok építését, amelyek függőlegesen egymásra helyezhetők, ezáltal jelentősen növelve a számítási sűrűséget.

Ahogyan a történelem mutatja, ha valamit hatékonyabbá teszünk, az emberek hajlamosak többet használni belőle. De Chowdhury szerint, ha már nem áll rendelkezésre elegendő energia a fejlődés fenntartásához, a növekedés lelassul. “Az emberek azonban mindig is jók voltak a megoldások megtalálásában,” tette hozzá.

2025, adminboss, arstechnica.com alapján

  • Mit gondolsz, a személyes életünkben hogyan érinthet minket az adatközpontok növekvő energiafogyasztása?
  • Ha te lennél a FERC tagja, milyen alternatív megoldást javasolnál az Amazon kérelmének elutasítása helyett?
  • Szerinted mi lenne a legfontosabb lépés az AI rendszerek energiahatékonyságának javításában?


Legfrissebb posztok

MA 14:34

A Tesla új frissítése: túrázz a Mikulással, MI-vel

Megérkezett a Tesla 2025-ös ünnepi frissítése, amely minden eddiginél több újdonságot ígér...

MA 14:17

Az első olvadéksó-üzemanyag forradalmasítja az atomreaktorokat

Az amerikai Idaho Nemzeti Laboratórium előállította a világ első kloridalapú, olvadt sóból készült üzemanyagát gyorsreaktorokhoz...

MA 14:02

Az éghajlati válság házhoz jön – és végre észbe kapunk

🏖 A kommunikáció apró módosítása, például ha megemlítik a lakóhelyedet egy figyelmeztetésben, drámai módon növelheti a felkészülési hajlandóságot a természeti katasztrófákkal szemben...

MA 13:49

A Hold ma éjjel: mit látsz az égen?

🌕 December 8-án a Hold a holdciklus 18. napján jár, vagyis fogyó domború fázisában figyelhetjük meg...

MA 13:33

Az első kínai újrafelhasználható rakéta felrobban – az Ethernet mégis repült

A kínai LandSpace űripari vállalat a múlt héten indította el Kína első újrafelhasználható rakétáját, a Zhuque-3 Y1-et, amely ugyan sikeresen eljuttatta második fokozatát a kijelölt pályára, de irányított visszatérése során felrobbant...

MA 13:17

Az ünnepi frissítés hóvihart hoz a Battlefield 6-ba

december 9-én érkezik a Battlefield 6 legújabb, 1.1.3.0-s frissítése, amely az ünnepi időszakot egy vadonatúj, hó borította Empire State pályaváltozattal indítja...

MA 13:02

Valóban megállíthatatlanok az önvezető autók?

Az elmúlt hetekben újabb önvezető járművekkel kapcsolatos fejlemények láttak napvilágot: egyre több városban indulnak vagy terveznek robotaxi-szolgáltatásokat...

MA 12:49

Az Airbus A320 rejtélye: tényleg kozmikus eredetű a hiba?

Felmerül a kérdés, okozhatta-e a kozmikus sugárzás azt a hibát, amely sürgősségi szoftverfrissítéshez és a repülő váratlan magasságvesztéséhez vezetett...

MA 12:33

A PS5 tarolt az idei Black Fridayen

A játékosok idén sem tétlenkedtek Black Friday alatt, a konzoleladások látványosan megugrottak...

MA 12:18

A titokzatos Aska-medál: az egyetlen várandós viking nő

🔭 A svéd Aska településen, egy 10. századi elit nő sírjában bukkantak rá az Aska-medálra, mely az egyetlen ismert ábrázolás egy várandós viking nőről...

MA 12:02

Az MI-aranyláz nyertesei: chipgyártók és energiacégek aratják le a hasznot

💰 A BlackRock ázsiai–csendes-óceáni befektetési vezetője, Ben Powell szerint az MI-infrastruktúrába áramló tőke még messze nem érte el a csúcsát – sőt, még csak most jön a java...

MA 11:49

Az élő shopping vitte a prímet Black Fridayen

Idén a Black Friday alkalmával az élő vásárlási alkalmazások soha nem látott sikert arattak...

MA 11:33

Az elpazarolt hőből áram lesz: jön az energiaforradalom?

A világnak egyre több energiára van szüksége, miközben rengeteg energia hő formájában egyszerűen elvész az ipari folyamatok során...

MA 11:01

Az éhínség és egy vulkánkitörés lökhette útjára a Fekete Halált

💀 A Fekete Halál, amely 1347 és 1353 között söpört végig Európán, több helyen a lakosság akár 60%-át is elpusztította, de máig rejtély, hogyan tudott ilyen gyorsan terjedni...

MA 10:57

A szupernóvák írják át az élet eredettörténetét

Ki gondolta volna, hogy egy brutális csillagrobbanás új fényt vet az élet építőköveire?..

MA 10:51

Az Apache Tika végzetes hibája új kibertámadási hullámot indít

Érdekes felvetés, hogy még a legnagyobb technológiai óriásokat is bármikor váratlanul érheti egy súlyos biztonsági rés...

MA 10:44

Az ingatlanpiac csatája: hol diktálnak az eladók, hol a vevők?

🏡 A Zillow szakértői a Market Heat Index nevű modellel elemzik az ingatlanpiacokat: az árak változását, a kínálatot és az eladási időt összesítve pontszámmal jelzik, hogy az adott városban inkább eladói vagy vevői piac uralkodik...

MA 10:32

Az új Doogee S200 Ultra: páncélozott mobil, borsos árcédulával

A Doogee idén újabb ütésálló telefonját dobta piacra, az S200 Ultra modellt, amely szinte minden szempontból erős ajánlat lenne – ha nem lenne ilyen drága...

MA 10:15

Az MI csak akkor jó, ha emberibbé tesz minket

🧑 Az emberek gyakran úgy gondolnak az MI-re, mintha sorsdöntő összecsapás lenne ember és gép között, ahogyan a Terminátorban (The Terminator) látjuk a Skynet példáján...