
Hibás döntések a fontos területeken
A Stanford Egyetem kutatói 24 népszerű MI-modellt teszteltek, több mint 13 ezer kérdésre adott válaszaikat vizsgálva. Kiderült, hogy az újabb modellek – például a 2024 májusában megjelent GPT-4o – 34 százalékkal kevésbé ismerték fel a hamis hiedelmeket, mint a valósakat. A régebbi modelleknél ez az arány még rosszabb volt: ott 39 százalékos különbséget találtak. A modellek a tények felismerésében is eltérően teljesítettek: az újabbaknál 91 százalékos pontosságot mértek, a régebbieknél csak 72–85 százalék közöttit.
Felületes gondolkodásmód és veszélyes hiányosságok
A vizsgált modellek nem valódi tudásra vagy logikus helyzetfelismerésre támaszkodnak, inkább mintázatokat ismernek fel – ez könnyen félrevezetheti az embereket. Különösen olyan területeken, ahol a pontatlan MI-válasz emberi életeket, illetve jogi vagy tudományos eredményeket befolyásolhat.
Az MI mindenhol ott lesz, akkor is, ha hibázik
Idén világszerte közel 555 billió forintot (1,5 billió dollárt) költenek MI-fejlesztésre – jósolja a Gartner elemzőcég. Az MI nemcsak a telefonokban vagy autókban, hanem a kenyérpirítókban és a streaming-szolgáltatásokban is megjelenik. Az elterjedést egyelőre nem akadályozzák a hibák, pedig például az MI-alapú ügyfélszolgálatok erősen alulteljesítenek, és a titoktartás jelentőségét sem értik.
