Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja

Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja
A ChatGPT-t fejlesztő OpenAI két nagy nyelvi modelljét, a GPT-3.5-öt és a GPT-4-et vizsgálták kanadai és ausztrál kutatók, hogy miként teljesítenek a legismertebb, emberi pszichológiából ismert döntési torzításokkal szemben. A friss tanulmány szerint az MI szinte pontosan úgy hajlik irracionális döntésekre, mint maga az ember: a megadott helyzetek közel felében bizonyult elfogultnak, sőt, időnként még erősebben is, mint mi. A jelenséget olyan torzítások esetén figyelték meg, mint a túlzott magabiztosság, a kockázatkerülés vagy a tulajdonosi hatás (endowment effect – amikor valamit csak azért tartunk értékesebbnek, mert már a miénk).

Az MI előszeretettel ismétli az emberi hibákat

A kutatók klasszikus pszichológiai kísérletek kérdéseit, illetve a való életből vett gazdasági példákat adtak fel a modellnek, például készletgazdálkodási vagy beszállítói tárgyalási helyzeteket. Míg a GPT-4 jobban teljesített a szigorúan matematikai, logikai feladatokban, addig a szubjektívebb, preferenciaalapú döntéseknél jól kimutathatók voltak az irracionális emberi mintázatok. Például a bizonyosságot még az embereknél is jobban kedvelte a gép, vagyis inkább választotta a biztosabb, kiszámíthatóbb megoldást, ha a feladat nem volt egyértelmű.

Néhány hibában még túl is tesz az MI

Kiderült, hogy a ChatGPT még felerősítheti a hibás gondolkodást: például a megerősítési torzításra (amikor csak azt vesszük észre, ami alátámasztja a meglévő véleményünket) minden esetben elfogult választ adott. Ugyanígy a szerencsejátékosokat megkísértő „forró kéz” hiedelem (hot-hand fallacy – amikor mintákat keresünk a véletlenben) is még erősebben jelent meg a GPT-4-ben, mint a GPT-3.5-ben. Ugyanakkor bizonyos torzításokat képes volt elkerülni: például az alapeseti arányok figyelmen kívül hagyását (base-rate neglect), vagy a „süllyedő költség” tévedést (sunk cost fallacy – amikor a már elköltött pénz alapján hozunk rossz döntést).

Az elfogultság forrása: maga az ember

A tanulmány szerint a ChatGPT emberi torzításai abból fakadnak, hogy a tanítása során azokat a mintázatokat sajátította el, amelyeket az emberek is követnek. A finomhangolás során ráadásul az emberek gyakran a hihetőbb, nem pedig a valóban logikus válaszokat díjazták, így az MI még inkább hajlamos az emberi sablonokra. Matematikailag egyértelmű feladatoknál jól teljesít, de minden, ami szubjektív vagy stratégiai döntést igényel, ott emberi felügyelet nélkül könnyen automatizálhatjuk a hibás gondolkodást.

Az MI-t úgy kellene kezelni, mint egy döntéshozó munkatársat: felügyelet, felelősség és etikai szabályok nélkül előbb szül hibákat, mint eredményeket.

2025, adminboss, www.livescience.com alapján


Legfrissebb posztok

A kisgazdák új reménye, mesterséges intelligencia segít a klímaváltozásban

hétfő 09:28

A kisgazdák új reménye, mesterséges intelligencia segít a klímaváltozásban

🌱 Dél-Malawiban, Mulanje közelében Alex Maere korábban évente 850 kg kukoricát takarított be, amivel eltartotta öt gyermekét. Az élet azonban 2023-ban gyökeresen megváltozott, amikor a Freddy ciklon elmosta a...

Az MI leállt, a fejlesztők megint őskori módszerekkel kínlódnak

hétfő 09:14

Az MI leállt, a fejlesztők megint őskori módszerekkel kínlódnak

🚧 Szerda délután jelentős kimaradás érte az Anthropic MI szolgáltatását, ami körülbelül fél órára elérhetetlenné tette a fejlesztők kedvenc MI-eszközeit: a Claude.ai-t, az API-t, a Claude Code-ot és a...

APPok, Amik Ingyenesek MA, 9/15
APP

hétfő 09:12

APPok, Amik Ingyenesek MA, 9/15

Fizetős iOS appok és játékok, amik ingyenesek a mai napon.     WeComics TH: Webtoon (iPhone/iPad)A WeComics TH egy népszerű thai képregényolvasó platform, amely több ezer, eredeti és...

Az elbukott hackerkirály: 10 év a Scattered Spider tagjaként

hétfő 09:01

Az elbukott hackerkirály: 10 év a Scattered Spider tagjaként

Noah Michael Urban, ismertebb nevén King Bob vagy Gustavo Fring, tíz év börtönbüntetést kapott, miután elismerte, hogy több millió dollárt zsákmányolt banki csalásokkal és összeesküvéssel a hírhedt Scattered...


hétfő 08:52

Az MI-óriás végre beadta a derekát: írók perelték sikerre

Az Anthropic MI-fejlesztő vállalat megegyezésre jutott abban a több milliárd forintnyi kártérítéssel fenyegető szerzői jogi perben, amelyet szerzők indítottak ellene. A felek közösen kérelmezték az amerikai kilencedik körzeti...

Az új Google Play Játékok mindent kitereget a játékaidról

hétfő 08:40

Az új Google Play Játékok mindent kitereget a játékaidról

Szeptember végétől átalakul a Google Play Játékok profilod: ezentúl mások is láthatják, milyen játékokkal játszol, milyen eredményeket értél el, és mennyit haladtál a kedvenceidben. Az új frissítéssel minden...

Az SAP rendszerekben új, súlyos biztonsági hibákat találtak

hétfő 08:27

Az SAP rendszerekben új, súlyos biztonsági hibákat találtak

A világ egyik legnagyobb üzleti szoftvercégénél, az SAP-nál ismét több súlyos sebezhetőségre derült fény, amelyek elsősorban a S/4HANA és a NetWeaver felhasználóit érintik. Hétfőn a vállalat bejelentette, hogy...

A GhostAction ellopta a GitHub titkait, több száz fiókot feltörve

hétfő 08:14

A GhostAction ellopta a GitHub titkait, több száz fiókot feltörve

🔒 Több ezer érzékeny adat, például PyPI- és AWS-kulcsok, valamint GitHub-tokenek kerültek illetéktelen kezekbe nemrég, a GhostAction névre keresztelt ellátási lánc elleni hack során. A támadásra a GitGuardian biztonsági...

Az OpenAI átalakulása: A profit vagy a biztonság a fontosabb?

hétfő 08:01

Az OpenAI átalakulása: A profit vagy a biztonság a fontosabb?

Az OpenAI komoly nyomás alá került, miután Kalifornia és Delaware főügyészei felszólították a cég igazgatótanácsát, hogy garantálják szolgáltatásaik biztonságát a gyermekek számára. Az ügyészek olyan tragikus esetekre hivatkoztak,...