Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja

Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja
A ChatGPT-t fejlesztő OpenAI két nagy nyelvi modelljét, a GPT-3.5-öt és a GPT-4-et vizsgálták kanadai és ausztrál kutatók, hogy miként teljesítenek a legismertebb, emberi pszichológiából ismert döntési torzításokkal szemben. A friss tanulmány szerint az MI szinte pontosan úgy hajlik irracionális döntésekre, mint maga az ember: a megadott helyzetek közel felében bizonyult elfogultnak, sőt, időnként még erősebben is, mint mi. A jelenséget olyan torzítások esetén figyelték meg, mint a túlzott magabiztosság, a kockázatkerülés vagy a tulajdonosi hatás (endowment effect – amikor valamit csak azért tartunk értékesebbnek, mert már a miénk).

Az MI előszeretettel ismétli az emberi hibákat

A kutatók klasszikus pszichológiai kísérletek kérdéseit, illetve a való életből vett gazdasági példákat adtak fel a modellnek, például készletgazdálkodási vagy beszállítói tárgyalási helyzeteket. Míg a GPT-4 jobban teljesített a szigorúan matematikai, logikai feladatokban, addig a szubjektívebb, preferenciaalapú döntéseknél jól kimutathatók voltak az irracionális emberi mintázatok. Például a bizonyosságot még az embereknél is jobban kedvelte a gép, vagyis inkább választotta a biztosabb, kiszámíthatóbb megoldást, ha a feladat nem volt egyértelmű.

Néhány hibában még túl is tesz az MI

Kiderült, hogy a ChatGPT még felerősítheti a hibás gondolkodást: például a megerősítési torzításra (amikor csak azt vesszük észre, ami alátámasztja a meglévő véleményünket) minden esetben elfogult választ adott. Ugyanígy a szerencsejátékosokat megkísértő „forró kéz” hiedelem (hot-hand fallacy – amikor mintákat keresünk a véletlenben) is még erősebben jelent meg a GPT-4-ben, mint a GPT-3.5-ben. Ugyanakkor bizonyos torzításokat képes volt elkerülni: például az alapeseti arányok figyelmen kívül hagyását (base-rate neglect), vagy a „süllyedő költség” tévedést (sunk cost fallacy – amikor a már elköltött pénz alapján hozunk rossz döntést).

Az elfogultság forrása: maga az ember

A tanulmány szerint a ChatGPT emberi torzításai abból fakadnak, hogy a tanítása során azokat a mintázatokat sajátította el, amelyeket az emberek is követnek. A finomhangolás során ráadásul az emberek gyakran a hihetőbb, nem pedig a valóban logikus válaszokat díjazták, így az MI még inkább hajlamos az emberi sablonokra. Matematikailag egyértelmű feladatoknál jól teljesít, de minden, ami szubjektív vagy stratégiai döntést igényel, ott emberi felügyelet nélkül könnyen automatizálhatjuk a hibás gondolkodást.

Az MI-t úgy kellene kezelni, mint egy döntéshozó munkatársat: felügyelet, felelősség és etikai szabályok nélkül előbb szül hibákat, mint eredményeket.

2025, adminboss, www.livescience.com alapján


Legfrissebb posztok

Tényleg az adatainkra vadászik a mesterséges intelligencia, vagy csak unatkozik?

MA 13:27

Tényleg az adatainkra vadászik a mesterséges intelligencia, vagy csak unatkozik?

🕵 A kvantumszámítógépek fejlődése korszakváltást hoz az adatbiztonságban, amely ellen a jelenlegi titkosítási technológiák egyre kevésbé nyújtanak védelmet. Nem hagyható figyelmen kívül, hogy az új eszközök elképesztő számítási képességeikkel...

A kicsi méhek agya segíthet okosabbá tenni a mesterséges intelligenciát

MA 13:01

A kicsi méhek agya segíthet okosabbá tenni a mesterséges intelligenciát

A kutatók egy digitális méhagy-modell segítségével olyan felfedezést tettek, amely átírhatja, ahogyan a jövő mesterséges intelligenciáját (MI) fejlesztjük. Kiderült, hogy a méhek repülés közbeni mozdulatai nemcsak a látott...


MA 12:54

Mindenki erre az Apple-újításra várt volna, mégis sokan csalódtak

Az őszi hónapok minden Apple-rajongó számára egyet jelentenek az új iOS érkezésével. Idén különlegessé teszi az eseményt, hogy az Apple szakít a megszokott számozással: elhagyja a 19-es verziót,...

Hogyan szaporodtak el a fajok a földi élet nagy ugrásaiban

MA 12:26

Hogyan szaporodtak el a fajok a földi élet nagy ugrásaiban

🚀 A földi élővilág lenyűgöző változatossága mögött néhány látványos evolúciós robbanás áll. Ezekben az időszakokban egy-egy új tulajdonság vagy frissen nyíló élőhely gyors és tömeges fajképződést indított el. Az...

A brit kormány visszavonulót fújt: nem lesz hátsó ajtó az Apple-en

MA 12:01

A brit kormány visszavonulót fújt: nem lesz hátsó ajtó az Apple-en

🔒 Az Egyesült Királyság letett arról, hogy rákényszerítse az Apple-t arra, hogy átadja a felhasználók titkosított iCloud-adataihoz vezető kiskaput. Ezzel az Apple fontos csatát nyert a magánszféra védelméért vívott...

Most először láthattunk bele egy haldokló csillag belsejébe

MA 11:51

Most először láthattunk bele egy haldokló csillag belsejébe

💫 Az SN2021yfj szupernóva felrobbanása ritka betekintést nyújtott egy haldokló csillag belső szerkezetébe, ami újabb bizonyítékul szolgált arra, hogyan születnek az atomok a világegyetemben. A csillagászok egy vastag gázburkot...


MA 11:25

A Google végre sötétebbé teszi az Androidot – akarod, vagy sem

Az Android 16 QPR2 béta 1-es verziója új szintre emeli a rendszer testreszabását: mostantól a sötét mód és az ikonok témázása akkor is ráerőltethető bármely alkalmazásra, ha azokat...

Az MI, amit te is letölthetsz: Megérkezett a Grok 2.5

MA 11:01

Az MI, amit te is letölthetsz: Megérkezett a Grok 2.5

Mostantól bárki letöltheti és kedvére módosíthatja a Grok 2.5 mesterségesintelligencia-modellt, mivel az xAI nyílt forráskódúvá tette azt. Elon Musk, a vállalat vezérigazgatója azt ígéri, hogy a következő, Grok...

A légkörkutatást új irányba vihetik a miniatűr, önjáró eszközök

MA 10:54

A légkörkutatást új irányba vihetik a miniatűr, önjáró eszközök

🛸 A Harvard Egyetem kutatói áttörést értek el: apró, saját magukat napfény segítségével emelő eszközök először „súlytalanodtak” mesterséges, közel vákuum körülmények között, amelyek a Föld felső légkörét idézik. Ez...