
Miért hallucinál kevesebbet a GPT-5?
A nyelvi MI-modelleket (LLM-eket) úgy fejlesztik, hogy mindig a legvalószínűbb következő szót próbálják megjósolni hatalmas adathalmazok alapján. Ez olykor magabiztos, de téves állításokhoz, illetve zagyvasághoz vezethet. Bár a jobb algoritmus, a több adat vagy a nagyobb számítási kapacitás általában csökkenti ezt a hibaarányt, még maguk a kutatók sem tudják pontosan, miért vannak kivételek – például az OpenAI korábbi, fejlettebb „okoskodó” modelljeinél is megfigyeltek logikátlanul magas hallucinációs arányt. Egyes kutatók szerint a hallucináció a rendszer sajátossága, nem egyszerűen javítható hiba.
Mennyivel pontosabb a GPT-5 a gyakorlatban?
Webhozzáféréssel a GPT-5 a leginkább támaszkodhat helyes válaszokra: ilyenkor csak 9,6 százalékos a tévedések aránya, míg a továbbfejlesztett, „gondolkodós” változat (GPT-5-thinking) még ennél is jobb, mindössze 4,5 százalékos hibaaránnyal. Ezek számottevően felülmúlják a versenytárs modelleket és saját elődeiket. Ugyanakkor egy belső teszten, ahol az MI nem férhetett hozzá az internethez, minden modellnél ijesztően magas, 40–52 százalék közötti volt a hallucinációk aránya. Ez alapján megállapítható, hogy internetkapcsolat nélkül továbbra is kockázatos értékes vagy kritikus információkra hagyatkozni bármely MI-től.
Páratlan vagy még mindig bizonytalan?
Kiderült, hogy a GPT-5 is képes látványosan tévedni: egy demó során a laikusok számára is ismert félreértést idézett repülőgépek működéséről, félreértelmezve a Bernoulli-effektust. Ez rávilágít arra, hogy a valódi tudományos, szakmai ismeretek hiánya továbbra is gyenge pontja marad még a legmodernebb MI-nek is – különösen, ha nem fér hozzá ellenőrizhető online forrásokhoz.