Olcsó MI-forradalom, egy titkos adatformátum mindent felforgat

Olcsó MI-forradalom, egy titkos adatformátum mindent felforgat
Az OpenAI új, nyílt súlyú modelljei körül sok a vita, de amit kevesen vesznek észre: az igazi forradalmat nem maguk a modellek, hanem az MXFP4 nevű, újszerű adatformátum hozza el. Ez a technológia drasztikusan csökkenti a futtatási (inferencia) költségeket, hatékonyabbá és mindenki számára elérhetőbbé teszi a mesterséges intelligenciát. Különösen fontos kiemelni, hogy ezzel a megoldással már negyedannyi hardveren is futhatnak ugyanazok a nyelvi modellek.

Mi is az az MXFP4?

Az MXFP4 egy 4 bites, lebegőpontos adattípus, amelyet az Open Compute Project definiált – ez a Facebook által 2011-ben indított közösségi kezdeményezés, amely az adatközponti komponenseket akarta olcsóbbá és hozzáférhetőbbé tenni. A névben az „MX” a mikroskálázásra utal: a sima FP4 kevés értéket tud ábrázolni (mindössze 16-ot), de az MXFP4 – okos matematikai trükkökkel – ezek helyett értékblokkokat tárol együttesen, közös skálázóval, így sokkal többet kihoz négy bitből.

Ez úgy működik, hogy a nagyobb pontosságú értékek blokkját (alapesetben 32 darabot) egy 8 bites számnak megfelelő közös szorzóval összevonják, és így kódolják vissza négybites szóként. A visszaalakításkor természetesen ezt a szorzót figyelembe kell venni, hogy a számok valódi értéke visszakerüljön.

Ugyanakkor a pontosság – bár messze jobb, mint a nyers FP4 esetén – így is némileg sérülhet, főleg ha veramente nagy méretű blokkokkal dolgozunk. Az újabb formátumok, például az NVFP4, kisebb, 16 elemű blokkokat és FP8-as skálázást alkalmaznak a pontosság további javításáért, de az alapelv azonos.

Fontos megjegyezni, hogy az MXFP4 mellett létezik MXFP6 és MXFP8 is, hasonló elvek alapján, csak eltérő bitszélességgel.

Milyen előnyei vannak az új adattípusnak?

A siker kulcsa a hely- és energiahatékonyság. Minél kisebbek a modellek súlyai, annál kevesebb VRAM, memóriabusz és számítási kapacitás kell a futtatásukhoz. A leggyakoribb, BF16 típusnál (ez 16 bites, lebegőpontos formátum) az MXFP4 alkalmazása kiemelkedő megtakarítást hoz: akár 75 százalékkal csökkenhetnek az erőforrásigények.

Az OpenAI beszámolója szerint a GPT-oss modellek 90 százalékán alkalmazták az MXFP4-es kvantálást. Ennek köszönhetően egy 120 milliárd paraméteres modell elfér egy 80 GB VRAM-os GPU-n, míg a 20 milliárdos verzió már akár 16 GB memórián is futhat.

Különösen fontos kiemelni, hogy az MXFP4-es modell nem csak negyedannyi helyet foglal, hanem akár négyszer gyorsabban is képes szöveget generálni, mint a BF16-ossal megegyező méretű társa. A tempót tovább fokozza, ha az adott hardver (például az Nvidia Blackwell szilícium) natív FP4 támogatással rendelkezik: ekkor akár kilenc petaFLOPS teljesítmény is kihozható egy B200 SXM modulból, szemben a BF16-tal mért 2,2 petaFLOPS-szal.

Ennek eredményeként a várakozási idő, amíg a modell elkészíti a válaszát, jelentősen lerövidül. Mindez úgy működik, hogy nem szükséges a natív FP4 támogatás – például az Nvidia H100-on (ahol nincs ilyen támogatás) is gond nélkül fut az MXFP4-ben kvantált modell, igaz, ott kisebb hatékonyság mellett.

Miért olyan nagy dolog ez az egész?

Bár a kvantálás nem új ötlet, sokan eddig kompromisszumnak tekintették a kisebb bitszélességet, mivel elkerülhetetlen bizonyos minőségvesztés. Ugyanakkor a kutatások szerint a 16-ról 8 bitre csökkentésnél ez a veszteség gyakorlatilag elhanyagolható a nagy nyelvi modelleknél, és egyre többen – például a DeepSeek – eleve FP8-ban tanítják modelljeiket.

Az MXFP4 sima FP4-hez képest hatalmas előrelépés, de nem csodaszer: az Nvidia szerint a minőség így is elmaradhat az FP8-tól, részben a blokkméret miatt. Az NVFP4 ezt próbálja kiküszöbölni, de a választás végső soron a felhasználók – vállalatok, API-szolgáltatók vagy felhőcégek – kezében van, hogy melyik verzió mellett döntenek.

Az OpenAI azonban most bevezette: a GPT-oss modelleket kizárólag MXFP4-ben adja ki. Nincs BF16 vagy FP8 változat. Ezzel – piacvezetőként – gyakorlatilag meghatározzák a szabványt, és azt sugallják mindenki másnak: ha nekünk elég jó az MXFP4, legyen elég jó nektek is.

Ennek következtében az infrastruktúra-szolgáltatók számára is könnyebbé válik a helyzet, hiszen a modellek jóval szerényebb hardverigénnyel is futtathatók – főleg, ha a hardver már támogatja az FP4-et. A felhőszolgáltatók ugyan kevésbé irányítják, ügyfeleik mivel töltik meg a bérletben adott hardvert, de minél többen választják az MXFP4-et, annál elterjedtebbé és olcsóbbá válik az egész MI-infrastruktúra.


A jövő: gyorsabb, olcsóbb, egyszerűbb MI mindenkinek

Az iparág most arra figyel, vajon az OpenAI riválisai is átveszik-e az MXFP4-et, vagy inkább saját változataikat vezetik be. Az biztos, hogy az MI-modellek futtatása új szintre lép: olcsóbban, gyorsabban, rugalmasabban lehet majd az eddiginél is nagyobb rendszereket működtetni. Az OpenAI lépése pedig mindenki számára kijelöli az irányt – akár tetszik, akár nem.

2025, adminboss, go.theregister.com alapján


Legfrissebb posztok

Kína klímavállalása, most tényleg érdemes figyelni
MA 00:00

Kína klímavállalása, most tényleg érdemes figyelni

🌍 Különösen fontos hangsúlyozni, hogy amikor Kína klímacélokat tűz ki, arra a világnak érdemes odafigyelnie. A pekingi vezetés ugyanis általában csak olyasmit ígér meg, amit valóban szándékában áll teljesíteni,...

csütörtök 23:30

Az MI-vezérelt műholdas net mostantól mindenhol elérhető

A T-Mobile T-Satellite szolgáltatása, amely a Starlink műholdakat használja, már nemcsak SMS-ekhez működik, hanem több alkalmazást is támogat. Mostantól például az AllTrails, az AccuWeather, az X (korábban Twitter),...

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján
csütörtök 23:02

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján

🚀 A Szaturnusz jeges holdja, az Enceladus ismét felkeltette a tudósok figyelmét, köszönhetően a Cassini űrszonda adatainak friss elemzéséhez. A felszín alatt rejtőző óceánból feltörő jégszemcsékben szokatlanul összetett szerves...

csütörtök 22:58

Az MI tuning új korszaka: bárki finomhangolhatja a gépi tanulást

A Thinking Machines Lab, amelyet az OpenAI egykori vezéralakjai, köztük Mira Murati alapítottak, első termékével robban be az MI világába. Az újdonság neve Tinker, és célja, hogy kutatók,...

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet
csütörtök 22:01

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet

⚠ A Red Hat OpenShift AI szolgáltatásában súlyos, 9,9-es veszélyességű sebezhetőséget fedeztek fel, amely lehetőséget ad távoli támadóknak arra, hogy minimális jogosultsággal is átvegyék az egész platform irányítását. Ez...

Az MI-sokkoló: A robotok még nem vették el a munkádat
csütörtök 21:59

Az MI-sokkoló: A robotok még nem vették el a munkádat

🤖 A Yale Egyetem közgazdászai alaposan megvizsgálták, mi történt az amerikai munkaerőpiacon azóta, hogy 2022 novemberében megjelent a ChatGPT és a többi generatív MI-rendszer. Megnyugtató következtetésük szerint az MI-forradalom...

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek
csütörtök 21:30

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek

Az Apple jelentősen felgyorsította az okosszemüvegek fejlesztését, miközben félretette a régóta tervezett, könnyebb Vision Pro headset elkészítését. A cég legalább kétféle szemüvegen dolgozik: az egyik egy kijelző nélküli...

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel
csütörtök 21:02

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel

Az őszi nagy vásárlási láz még el sem kezdődött, de a robotporszívók piacán már most komoly akciókba futhat bele az, aki előre gondolkodik. Idén az olyan ismert gyártók,...

csütörtök 21:01

A szaturnuszi hold izgalmas titka: újabb jelek az élet lehetőségére

Enceladus, a Szaturnusz hatodik legnagyobb holdja ismét a tudományos érdeklődés középpontjába került. A Cassini űrszonda (Cassini) 2017-ben befejeződött küldetése során fedezte fel, hogy a hold déli pólusán hatalmas...