Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja

Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja
A ChatGPT-t fejlesztő OpenAI két nagy nyelvi modelljét, a GPT-3.5-öt és a GPT-4-et vizsgálták kanadai és ausztrál kutatók, hogy miként teljesítenek a legismertebb, emberi pszichológiából ismert döntési torzításokkal szemben. A friss tanulmány szerint az MI szinte pontosan úgy hajlik irracionális döntésekre, mint maga az ember: a megadott helyzetek közel felében bizonyult elfogultnak, sőt, időnként még erősebben is, mint mi. A jelenséget olyan torzítások esetén figyelték meg, mint a túlzott magabiztosság, a kockázatkerülés vagy a tulajdonosi hatás (endowment effect – amikor valamit csak azért tartunk értékesebbnek, mert már a miénk).

Az MI előszeretettel ismétli az emberi hibákat

A kutatók klasszikus pszichológiai kísérletek kérdéseit, illetve a való életből vett gazdasági példákat adtak fel a modellnek, például készletgazdálkodási vagy beszállítói tárgyalási helyzeteket. Míg a GPT-4 jobban teljesített a szigorúan matematikai, logikai feladatokban, addig a szubjektívebb, preferenciaalapú döntéseknél jól kimutathatók voltak az irracionális emberi mintázatok. Például a bizonyosságot még az embereknél is jobban kedvelte a gép, vagyis inkább választotta a biztosabb, kiszámíthatóbb megoldást, ha a feladat nem volt egyértelmű.

Néhány hibában még túl is tesz az MI

Kiderült, hogy a ChatGPT még felerősítheti a hibás gondolkodást: például a megerősítési torzításra (amikor csak azt vesszük észre, ami alátámasztja a meglévő véleményünket) minden esetben elfogult választ adott. Ugyanígy a szerencsejátékosokat megkísértő „forró kéz” hiedelem (hot-hand fallacy – amikor mintákat keresünk a véletlenben) is még erősebben jelent meg a GPT-4-ben, mint a GPT-3.5-ben. Ugyanakkor bizonyos torzításokat képes volt elkerülni: például az alapeseti arányok figyelmen kívül hagyását (base-rate neglect), vagy a „süllyedő költség” tévedést (sunk cost fallacy – amikor a már elköltött pénz alapján hozunk rossz döntést).

Az elfogultság forrása: maga az ember

A tanulmány szerint a ChatGPT emberi torzításai abból fakadnak, hogy a tanítása során azokat a mintázatokat sajátította el, amelyeket az emberek is követnek. A finomhangolás során ráadásul az emberek gyakran a hihetőbb, nem pedig a valóban logikus válaszokat díjazták, így az MI még inkább hajlamos az emberi sablonokra. Matematikailag egyértelmű feladatoknál jól teljesít, de minden, ami szubjektív vagy stratégiai döntést igényel, ott emberi felügyelet nélkül könnyen automatizálhatjuk a hibás gondolkodást.

Az MI-t úgy kellene kezelni, mint egy döntéshozó munkatársat: felügyelet, felelősség és etikai szabályok nélkül előbb szül hibákat, mint eredményeket.

2025, adminboss, www.livescience.com alapján



Legfrissebb posztok