Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja

Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja
A ChatGPT-t fejlesztő OpenAI két nagy nyelvi modelljét, a GPT-3.5-öt és a GPT-4-et vizsgálták kanadai és ausztrál kutatók, hogy miként teljesítenek a legismertebb, emberi pszichológiából ismert döntési torzításokkal szemben. A friss tanulmány szerint az MI szinte pontosan úgy hajlik irracionális döntésekre, mint maga az ember: a megadott helyzetek közel felében bizonyult elfogultnak, sőt, időnként még erősebben is, mint mi. A jelenséget olyan torzítások esetén figyelték meg, mint a túlzott magabiztosság, a kockázatkerülés vagy a tulajdonosi hatás (endowment effect – amikor valamit csak azért tartunk értékesebbnek, mert már a miénk).

Az MI előszeretettel ismétli az emberi hibákat

A kutatók klasszikus pszichológiai kísérletek kérdéseit, illetve a való életből vett gazdasági példákat adtak fel a modellnek, például készletgazdálkodási vagy beszállítói tárgyalási helyzeteket. Míg a GPT-4 jobban teljesített a szigorúan matematikai, logikai feladatokban, addig a szubjektívebb, preferenciaalapú döntéseknél jól kimutathatók voltak az irracionális emberi mintázatok. Például a bizonyosságot még az embereknél is jobban kedvelte a gép, vagyis inkább választotta a biztosabb, kiszámíthatóbb megoldást, ha a feladat nem volt egyértelmű.

Néhány hibában még túl is tesz az MI

Kiderült, hogy a ChatGPT még felerősítheti a hibás gondolkodást: például a megerősítési torzításra (amikor csak azt vesszük észre, ami alátámasztja a meglévő véleményünket) minden esetben elfogult választ adott. Ugyanígy a szerencsejátékosokat megkísértő „forró kéz” hiedelem (hot-hand fallacy – amikor mintákat keresünk a véletlenben) is még erősebben jelent meg a GPT-4-ben, mint a GPT-3.5-ben. Ugyanakkor bizonyos torzításokat képes volt elkerülni: például az alapeseti arányok figyelmen kívül hagyását (base-rate neglect), vagy a „süllyedő költség” tévedést (sunk cost fallacy – amikor a már elköltött pénz alapján hozunk rossz döntést).

Az elfogultság forrása: maga az ember

A tanulmány szerint a ChatGPT emberi torzításai abból fakadnak, hogy a tanítása során azokat a mintázatokat sajátította el, amelyeket az emberek is követnek. A finomhangolás során ráadásul az emberek gyakran a hihetőbb, nem pedig a valóban logikus válaszokat díjazták, így az MI még inkább hajlamos az emberi sablonokra. Matematikailag egyértelmű feladatoknál jól teljesít, de minden, ami szubjektív vagy stratégiai döntést igényel, ott emberi felügyelet nélkül könnyen automatizálhatjuk a hibás gondolkodást.

Az MI-t úgy kellene kezelni, mint egy döntéshozó munkatársat: felügyelet, felelősség és etikai szabályok nélkül előbb szül hibákat, mint eredményeket.

2025, adminboss, www.livescience.com alapján


Legfrissebb posztok

Az MI-nek semmi keresnivalója a naplóírásban

MA 14:26

Az MI-nek semmi keresnivalója a naplóírásban

📝 A naplóírás varázsa éppen abban rejlik, hogy a fehér lap előtt ülve őszintén találkozol önmagaddal. A digitális naplóalkalmazások fejlődésével azonban egyre több MI-alapú megoldás próbálja megkönnyíteni ezt a...

Meglepően stabil marad az agy testtérképe amputáció után is

MA 14:01

Meglepően stabil marad az agy testtérképe amputáció után is

💪 Nem hagyható figyelmen kívül, hogy új kutatások szerint az agy testtérképe, amely a tapintás és más érzékelések feldolgozásáért felelős elsődleges szomatoszenzoros kéregben található, jóval stabilabb, mint eddig gondoltuk....

Az űrrakéta, amit a SpaceX sem képes megépíteni

MA 13:53

Az űrrakéta, amit a SpaceX sem képes megépíteni

A SpaceX texasi Starbase gyára elképesztő méreteivel és fejlett technológiájával minden eddigi rakétaépítő üzem fölé magasodik. A cél: évente 365 Starship űrhajót gyártani, amivel a vállalat gyakorlatilag naponta...

Tényleg az adatainkra vadászik a mesterséges intelligencia, vagy csak unatkozik?

MA 13:27

Tényleg az adatainkra vadászik a mesterséges intelligencia, vagy csak unatkozik?

🕵 A kvantumszámítógépek fejlődése korszakváltást hoz az adatbiztonságban, amely ellen a jelenlegi titkosítási technológiák egyre kevésbé nyújtanak védelmet. Nem hagyható figyelmen kívül, hogy az új eszközök elképesztő számítási képességeikkel...

A kicsi méhek agya segíthet okosabbá tenni a mesterséges intelligenciát

MA 13:01

A kicsi méhek agya segíthet okosabbá tenni a mesterséges intelligenciát

A kutatók egy digitális méhagy-modell segítségével olyan felfedezést tettek, amely átírhatja, ahogyan a jövő mesterséges intelligenciáját (MI) fejlesztjük. Kiderült, hogy a méhek repülés közbeni mozdulatai nemcsak a látott...


MA 12:54

Mindenki erre az Apple-újításra várt volna, mégis sokan csalódtak

Az őszi hónapok minden Apple-rajongó számára egyet jelentenek az új iOS érkezésével. Idén különlegessé teszi az eseményt, hogy az Apple szakít a megszokott számozással: elhagyja a 19-es verziót,...

Hogyan szaporodtak el a fajok a földi élet nagy ugrásaiban

MA 12:26

Hogyan szaporodtak el a fajok a földi élet nagy ugrásaiban

🚀 A földi élővilág lenyűgöző változatossága mögött néhány látványos evolúciós robbanás áll. Ezekben az időszakokban egy-egy új tulajdonság vagy frissen nyíló élőhely gyors és tömeges fajképződést indított el. Az...

A brit kormány visszavonulót fújt: nem lesz hátsó ajtó az Apple-en

MA 12:01

A brit kormány visszavonulót fújt: nem lesz hátsó ajtó az Apple-en

🔒 Az Egyesült Királyság letett arról, hogy rákényszerítse az Apple-t arra, hogy átadja a felhasználók titkosított iCloud-adataihoz vezető kiskaput. Ezzel az Apple fontos csatát nyert a magánszféra védelméért vívott...

Most először láthattunk bele egy haldokló csillag belsejébe

MA 11:51

Most először láthattunk bele egy haldokló csillag belsejébe

💫 Az SN2021yfj szupernóva felrobbanása ritka betekintést nyújtott egy haldokló csillag belső szerkezetébe, ami újabb bizonyítékul szolgált arra, hogyan születnek az atomok a világegyetemben. A csillagászok egy vastag gázburkot...