
Az Olmo 3 modellcsalád: Teljes nyitottság, visszakövethetőség
Az Olmo 3 középpontjában a 32 milliárd paraméteres Olmo 3-Think áll, amely először teszi lehetővé, hogy a modell gondolkodási láncolataiba, részeredményeibe is betekintést nyerjünk – mindez visszavezethető egészen a tanítóadatokig és a képzési döntésekig. Az Olmo 3 családja kompakt, sűrű modelleket tartalmaz (7 milliárd és 32 milliárd paraméterrel), amelyek futtathatók akár laptopon, akár kutatói klasztereken.
Az Olmo 3-Base a valaha kiadott legerősebb, teljesen nyílt alapmodell, amely minden fejlesztési komponensével együtt elérhető. Az új, bővített és diverzifikált értékelési rendszerben az Olmo 3-Base matematikában, olvasásban és programozásban is kiemelkedő, hosszú szövegeken is stabilan teljesít (akár 65 ezer tokenig). Ez ideális alap továbbtanításhoz, célspecifikus finomhangoláshoz, vagy megerősítéses tanuláshoz, és könnyen bővíthető extra képességekkel, például eszközhasználattal vagy összetett utasítások követésével.
Az Olmo 3-Think kifejezetten érvelési, gondolkodási feladatokra készült, komoly számítási kapacitást igénylő kutatásokhoz. Két méretben érhető el: a nagyobb, 32 milliárd paraméteres verzió szorosan versenyzik a Qwen és hasonló csúcskategóriás nyílt modellekkel, pedig hatszor kevesebb képzési adatmennyiségből tanult. A kisebb, 7 milliárdos változat ugyancsak azonos koncepcióval készül, és összetett feladatoknál lépésről lépésre követhetővé teszi a gondolkodást még szerényebb hardveren is.
Az Olmo 3-Instruct (7B) a csevegő, gyors, válaszadás-centrikus vonal: többkörös chat, utasításkövetés, eszközhasználat mind beépített funkció. Az értékelések szerint felveszi a versenyt, sőt, gyakran megelőzi hasonló nyílt modelleket, például a Qwen 2.5, Gemma 3 és Llama 3.1 modelleket.
Végül, az Olmo 3-RL Zero (7B) teljesen nyílt megerősítéses tanulási útként jelent meg, kifejezetten bonyolult gondolkodási viselkedések felépítésére, átlátható, visszaellenőrizhető jutalmazással.
A modellfolyam: teljes rugalmasság és újrafelhasználhatóság
Az Olmo 3 nem egyetlen, fagyasztott modellt kínál, hanem teljesen dokumentált fejlesztési útvonalakat: az Instruct ágat mindennapi csevegésre és eszközhasználatra, az RL Zero ágat a megerősítéses tanulási kísérletekhez, és a Think/indoklási ágat, amely a legkomplexebb gondolkodást támogatja. Mindezek lehetővé teszik, hogy akár saját, testreszabott utat járj be: kiindulhatsz a Base modellből, használhatsz saját finomhangolási, preferenciaoptimalizálási (DPO) sablont, vagy beépíthetsz újfajta RL-célokat. Az egész folyamat újrafelhasználható építőelemmé, sablonná válik – vagyis nemcsak a mi munkánkat látod, hanem bármikor a saját MI-d fejlesztésének is alapja lehet.
Kimagasló teljesítmény különböző területeken
Az Olmo 3 modelleket kiterjedt tesztkészleten vizsgálták, amelyek magukban foglalják az iparági standard feladatokat: matematikai problémákat, programozási és kódolási feladatokat, olvasásértést, információ-visszakeresést, általános tudásalapú kérdéseket. Az Olmo 3-Base 32B minden összehasonlított nyílt alapmodellt megelőz vagy leköröz, programozási, matematikai és hosszú szövegfeldolgozási teszteken is kiemelkedően teljesít.
Mindez a gondosan válogatott tanítóadathalmazoknak, az egyes modellekre optimalizált képzési stratégiának és új algoritmikus fejlesztéseknek köszönhető. Az RL-környezetek kidolgozása is kulcsfontosságú volt, főleg az érvelő modelleknél. A modellteljesítményben nincs kompromisszum: az Olmo 3 sorra hozza a legjobb számokat a főbb benchmarkokon, sokszor minimális különbséggel az iparág nagyágyúihoz képest (pl. Qwen 2.5, Gemma 3).
Fejlett gondolkodási és csevegési képességek
Az Olmo 3-Think a Base bázismodellt indoklási modellel fejleszti tovább: átfogó matematikai, kódolási és összetett problémákon tanítják több lépéses megoldásra, majd SFT-, DPO- és RLVR-ágon keresztül finomítják. Ezáltal rendkívül magas minőségű gondolkodási láncokat alakít ki – ezek minden korábbinál jobban követik a valós logikai gondolkodást, és a teljes folyamat nyíltan követhető. A 32B verzió a legtöbb mérés szerint vezeti saját mezőnyét, vagy néhány ponton belül marad a legjobb, nyílt súlyú modellekhez képest (például Qwen 3 32B vagy Gemma 3 27B).
Az Olmo 3-Instruct főleg csevegésre, eszközhasználatra és szintetikus adatok generálására optimalizált, rövidebb válaszokat ad, így gyorsabb és hatékonyabb inferencia érhető el. Az összehasonlítások azt mutatják, hogy 7 milliárdos méretben is lekörözi vagy kiegyenlíti főbb riválisait még összetettebb, többkörös beszélgetésekben is.
A valódi nyitottság előnye
Az Olmo 3 összes komponense – adat, kód, modellsúlyok, ellenőrzőpontok – nyíltan, szabadon felhasználható engedélyekkel érhető el. Ezzel új szabványt teremt a mesterséges intelligencia fejlesztésében: a teljes modellfolyam nyilvánossá tétele segíti az átláthatóságot, a bizalmat, a közösségi kollaborációt és az innovációt is.
Ebből adódóan az Olmo 3 nem csupán új modelleket adott a nyílt forrású MI-közösségnek, hanem áttörést hozott a fejlesztési folyamat megosztásában is – és mostantól tényleg mindenki számára elérhetővé vált a fejlődés teljes útja.
