
Amerikai válasz a kínai MI-laborok dominanciájára
Nem hagyható figyelmen kívül, hogy az OpenAI több mint öt éve nem jelentkezett szabadon felhasználható nyelvi modellel. Ezzel szemben a kínai DeepSeek, az Alibaba Qwenje és a Moonshot AI már évek óta élen járnak többek között a nyílt modellek fejlesztésében. Ez a piac korábban a Meta Llama modelljeiről volt ismert, de ezek az elmúlt évben háttérbe szorultak.
Az amerikai MI-fejlesztők, köztük az OpenAI is, egyre nagyobb nyomás alá kerülnek, hogy elősegítsék a nyílt fejlesztést, és támogassák az olyan demokratikus értékek mentén kialakított MI-rendszerek elterjesztését, amelyek megfelelnek a nyugati – és főként amerikai – érdekeknek. A Trump-adminisztráció a nyáron szintén felszólította az amerikai cégeket a nyílt MI terjesztésére, hogy így fékezze a kínai térnyerést.
Az új modellek teljesítménye
Az OpenAI azzal büszkélkedik, hogy új MI-jei meghaladják bizonyos vetélytársak képességeit, bár összességében nem a legjobbak. Mesterséges intelligencia versenykódolási teszteken (például Codeforces) a gpt-oss-120b 2622, a gpt-oss-20b pedig 2516 pontot ért el – ezzel lehagyják a DeepSeek R1-et, de nem tudják megelőzni az o3-at és az o4-mini modelleket.
Egy másik fontos mérőszám a Humanity’s Last Exam (Az emberiség utolsó vizsgája), amely széles tematikájú, közösség által összeállított kérdésekből áll; itt rendre 19% és 17,3% eredményt hoztak. Ez az o3 alatti, de jobbnak számít a DeepSeek és Qwen modellek vezető generációjánál.
Gyakori „hallucináció” – a kis modellek átka
A modellek jelentősen hajlamosabbak a „hallucinációkra”, mint az OpenAI legújabb, zárt fejlesztésű MI-jei. A PersonQA, azaz a személyes információk ismeretét mérő teszten 49% (gpt-oss-120b), illetve 53% (gpt-oss-20b) hibaarányt produkáltak – ez több mint háromszorosa a cég saját o1 modelljének, és jóval meghaladja még az o4-mini eredményét is (36%).
Az OpenAI szerint ez részben elvárható, hiszen a kisebb modelleknek kevesebb világtudásuk van, ami fokozza a téves – „hallucinációs” – válaszok előfordulását.
Képzés, technológia: mire képesek az új MI-k?
A modellek felépítése és tanítása hasonló a vállalat zárt modelljeiéhez. Mindkettő az úgynevezett kevert szakértői felépítést (mixture of experts) használja, vagyis adott válaszokhoz csak töredéknyi paramétert aktivál, ezzel növelve a hatékonyságot. Például a gpt-oss-120b modell összesen 117 milliárd paraméterrel bír, de egy token feldolgozásakor csak 5,1 milliárdot aktivál.
A modelleket intenzív gépi tanulás útján, utóképzéssel fejlesztik, ahol rengeteg Nvidia GPU bevonásával tanítják őket, hogy bonyolult gondolatmeneteket is végig tudjanak követni. Képesek olyan eszközöket is használni, mint a webes keresés vagy Python-kód futtatás, de az új modellekkel kizárólag szöveget lehet feldolgozni vagy generálni – képet vagy hangot nem.
Licencelés, biztonsági aggályok
Az OpenAI az új modelleket Apache 2.0 licenc alatt adja ki, amely lehetővé teszi a cégek számára a monetizációt anélkül, hogy külön engedélyt kellene kérniük a vállalattól. Ugyanakkor a tanítás során használt adatkészleteket nem hozzák nyilvánosságra – főként jogi okokból, hiszen több bírósági ügy is folyik a szerzői joggal védett tartalmakkal történő MI-tanítás miatt.
A vállalat elismeri, hogy a modellek biztonságát alaposan tesztelték, beleértve annak lehetőségét, hogy visszaélésekre, például kiberbűnözésre vagy biológiai fegyverek fejlesztésére használhatók-e. Az eredmények alapján a veszély növekedése csak elenyésző, és nem éri el azt a szintet, amelyet a cég veszélyesnek tartana.
Piaci verseny, folytatás
A fentiek tükrében az OpenAI új modelljei jelentős lépést jelentenek a nyílt forráskódú MI versenyében, de a fejlesztők már izgatottan várják a DeepSeek R2-t és a Meta Superintelligence Lab következő nyílt modelljét. Az MI-fejlesztés új fejezete indul: harc a demokrácia nevében, vagy csupán Amerika próbálja behozni a lemaradását?