
Mestermű helyett kompromisszum
Lényeges hangsúlyozni, hogy a GPT-5 valójában nem egy önálló modell, hanem legalább két különböző MI-modellből áll: egy gyors, könnyű LLM a hétköznapi kérdésekhez, és egy erősebb egység a komplexebb témákhoz. Hogy a kérés melyik modellhez kerül, azt egy „router” dönti el, amely gyakorlatilag intelligens terheléselosztóként működik. A képekre vonatkozó promptokat pedig egy eltérő, Image Gen 4o nevű modell dolgozza fel. Ez jelentős váltás az OpenAI eddigi gyakorlatához képest, amikor a Plus és Pro felhasználók maguk dönthették el, melyik MI-vel dolgoznak.
Költségcsökkentés minden szinten
Az elosztó modellnek köszönhetően az egyszerű kéréseket a kevésbé számításigényes MI kezeli, így a költségek is alacsonyabbak. Ennek ellenére a teljesítménynövekedés meglehetősen szerény: a GPT-5 főleg az eszközhívások pontosságában és a „hallucinációk” visszaszorításában javult, de például a matematika területén elért fejlődés minimális, ahogy az AIME 2025 (AIME 2025) teszten is látható.
A rendszer ráadásul automatikusan kapcsolja ki vagy be a fejlettebb gondolkodást a prompt komplexitásától függően – főleg az ingyenes felhasználók ezt nem befolyásolhatják. Így spórol a vállalat a legtöbb felhasználó lekérdezésein: minél kevesebb számítás történik, annál kevesebb a token, vagyis alacsonyabb az üzemeltetési költség.
Búcsú a régi modellektől
A költségharc részeként az OpenAI megszüntette (pontosabban átmenetileg szünetelteti) a régi modelleket, köztük a GPT-4o-t is, abban bízva, hogy a GPT-5 minden szempontból jobb lesz. Ez azonban nem nyerte el a felhasználók tetszését. Sam Altman vezérigazgató később elismerte, hogy ez hiba volt, hiszen sokan szoros kötődést éreznek az egyes MI-modellekhez, így azok hirtelen megszűnése komoly felháborodást váltott ki.
Az OpenAI egyébként mélyen hallgat a belső technikai részletekről, de ha a GPT-5 az új fejlesztésű, MXFP4-gyel kvantált modellekhez hasonló, akkor ez akár 75 százalékos memóriatakarékosságot is jelenthet a korábbi típushoz képest, ami nem elhanyagolható előny, ha valaki a felhőszolgáltatások költségeiben gondolkodik.
Szűkös „memória”, nagy árak
Fontos kiemelni, hogy a GPT-5 kontextusablaka (a hosszú távú memória) nem nőtt. Az ingyenes felhasználók csak 8 000 tokent érhetnek el, míg a Plus és Pro előfizetők 128 000 tokent. Ezzel szemben a konkurens Anthropic Claude Pro csomagja 200 000, a Google Gemini (Gemini) pedig akár 1 millió tokent kínál – ami nagyobb dokumentumok olvasásához vagy elemzéséhez óriási előnyt jelent. Az OpenAI ezzel szemben inkább a kisebb ablakot választotta, valószínűleg a gépigény és költségek csökkentése érdekében.
Ha valakinek mégis extra hosszú szövegek kezelésére lenne szüksége, az OpenAI API-n keresztül 400 000 tokenes ablak is elérhető – bár lenyűgöző, egyetlen feltöltés közel 180 Ft-ba kerül (átváltva kb. 50 centes USD-árfolyamon), így a költségek könnyen elszállhatnak.
Altman és a tűzoltás
Az OpenAI vezérigazgatója, Sam Altman az utóbbi napokban lényegében válságkezelést folytat: részben visszahozta a GPT-4o-t a fizetős ügyfeleknek, és lehetővé tette, hogy a válaszidő gyorsaságát három fokozatban lehessen állítani (Automatikus, Gyors, Gondolkodó). A heti üzenetküldési limitet is megemelték, most már 3 000 üzenetet lehet írni egy héten.
Altman stratégiája egyértelmű: elsősorban a fizetős felhasználókat fogják kiszolgálni, majd ha számukra bőven elegendő az erőforrás, jöhetnek az API-felhasználók, végül az ingyenes ChatGPT. Ígérete szerint év végére megduplázzák a számítási kapacitást – így a jövőben az ingyenes felhasználók számára is jobb elérhetőséget ígér.
Ennek ellenére a GPT-5 most nem lenyűgöző fejlődésével, hanem inkább az árnyékban megvalósított költségoptimalizálásával hívja fel magára a figyelmet: a tempó maradt, de a gazdaságosság került a középpontba.