
Könnyű hardver, nagy ígéretek
A nagyobb modell, a gpt-oss-120B egyetlen 80 GB-os GPU-n fut, míg a 20B-s változat kifejezetten kis hardveres környezetekre lett optimalizálva, elég hozzá 16 GB memória. Mindkettő erős érvelési képességeket ígér, legalábbis papíron: az OpenAI szerint akár felül is múlhatják az o4-mini modellt kulcsfontosságú feladatokban. Ugyanakkor független teszteredmények még nincsenek, így a valódi teljesítmény továbbra is kérdéses.
Szabadság és rugalmasság nyílt forráskóddal
A modellek Apache 2.0 licenc alatt érhetők el, így bárki szabadon kísérletezhet velük, különösen olyan régiókban, ahol szigorú adatvédelmi előírások vannak. Az OpenAI lépése célzottan támogatja a MI-fejlesztést azoknál a cégeknél, ahol erőforrás-korlátozások vagy magas biztonsági követelmények vannak.
Új MI-korszak az AWS-en?
Az Amazon Bedrock AgentCore segítségével a modellek könnyen illeszthetők vállalati rendszerekhez is, komplex feladatvégrehajtásra. Olyan munkákra ajánlják, mint a kódgenerálás, tudományos következtetések levonása vagy többlépéses problémák megoldása, főleg ahol fontos a gondolatmenet vagy a többlépéses magyarázat. A 128 000 szavas kontextusablak lehetőséget ad hosszabb interakciókra is, például dokumentumelemzéshez vagy ügyféltámogatáshoz. Az új modellek jól együttműködnek az elterjedt fejlesztői eszközökkel, így a vLLM-mel, a llama.cpp-vel vagy a Hugging Face platformmal is.
Marad némi stratégiai szál is: ezzel a lépéssel az OpenAI egyszerre erősíti jelenlétét a szabadon elérhető MI-eszközök piacán, és még szorosabbra fűzi kapcsolatát az Amazonnal, amely továbbra is uralja a felhőalapú számítástechnikát.