Az MI elszállt önbizalma néha már az emberi hülyeséget is túlszárnyalja
A ChatGPT-t fejlesztő OpenAI két nagy nyelvi modelljét, a GPT-3.5-öt és a GPT-4-et vizsgálták kanadai és ausztrál kutatók, hogy miként teljesítenek a legismertebb, emberi pszichológiából ismert döntési torzításokkal szemben. A friss tanulmány szerint az MI szinte pontosan úgy hajlik irracionális döntésekre, mint maga az ember: a megadott helyzetek közel felében bizonyult elfogultnak, sőt, időnként még erősebben is, mint mi. A jelenséget olyan torzítások esetén figyelték meg, mint a túlzott magabiztosság, a kockázatkerülés vagy a tulajdonosi hatás (endowment effect – amikor valamit csak azért tartunk értékesebbnek, mert már a miénk).
Az MI előszeretettel ismétli az emberi hibákat
A kutatók klasszikus pszichológiai kísérletek kérdéseit, illetve a való életből vett gazdasági példákat adtak fel a modellnek, például készletgazdálkodási vagy beszállítói tárgyalási helyzeteket. Míg a GPT-4 jobban teljesített a szigorúan matematikai, logikai feladatokban, addig a szubjektívebb, preferenciaalapú döntéseknél jól kimutathatók voltak az irracionális emberi mintázatok. Például a bizonyosságot még az embereknél is jobban kedvelte a gép, vagyis inkább választotta a biztosabb, kiszámíthatóbb megoldást, ha a feladat nem volt egyértelmű.
Néhány hibában még túl is tesz az MI
Kiderült, hogy a ChatGPT még felerősítheti a hibás gondolkodást: például a megerősítési torzításra (amikor csak azt vesszük észre, ami alátámasztja a meglévő véleményünket) minden esetben elfogult választ adott. Ugyanígy a szerencsejátékosokat megkísértő „forró kéz” hiedelem (hot-hand fallacy – amikor mintákat keresünk a véletlenben) is még erősebben jelent meg a GPT-4-ben, mint a GPT-3.5-ben. Ugyanakkor bizonyos torzításokat képes volt elkerülni: például az alapeseti arányok figyelmen kívül hagyását (base-rate neglect), vagy a „süllyedő költség” tévedést (sunk cost fallacy – amikor a már elköltött pénz alapján hozunk rossz döntést).
A tanulmány szerint a ChatGPT emberi torzításai abból fakadnak, hogy a tanítása során azokat a mintázatokat sajátította el, amelyeket az emberek is követnek. A finomhangolás során ráadásul az emberek gyakran a hihetőbb, nem pedig a valóban logikus válaszokat díjazták, így az MI még inkább hajlamos az emberi sablonokra. Matematikailag egyértelmű feladatoknál jól teljesít, de minden, ami szubjektív vagy stratégiai döntést igényel, ott emberi felügyelet nélkül könnyen automatizálhatjuk a hibás gondolkodást.
Az MI-t úgy kellene kezelni, mint egy döntéshozó munkatársat: felügyelet, felelősség és etikai szabályok nélkül előbb szül hibákat, mint eredményeket.
A Wikimédia Alapítvány a napokban egy gyorsan terjedő JavaScript-féreggel nézett szembe, amely felhasználói szkripteket módosított és vandalizmust okozott a Meta-Wiki oldalain...
💡 A Google új parancssori eszközt (CLI) tett közzé, amellyel sokkal egyszerűbben lehet automatizálni és integrálni MI‑alapú segédeket, valamint a Gmail, a Docs és más Workspace‑alkalmazások kezelését...
Az utóbbi időben az OpenClaw nevű, nyílt forráskódú személyi asszisztensként népszerűvé vált MI-ügynök telepítőit meghamisították, és veszélyes verzióikat terjesztették a GitHubon keresztül...
Az Xbox-univerzum most izgatottabban zsong, mint egy tini TikTok-sztár, ugyanis Asha Sharma, az Xbox új vezérigazgatója végre bejelentette, hogy jön a következő generációs konzol, amelynek titkos kódneve Project Helix...
Egy, az amerikai kormánynak dolgozó vállalkozó fia elképesztő mértékben, több mint 17 milliárd forint (46 millió dollár) értékű kriptovalutát lopott el az Amerikai Egyesült Államok Marsall Szolgálatától (U...
Fizetős iOS appok és játékok, amik ingyenesek a mai napon. Four Last Things (iPhone/iPad)A Four Last Things egy point-and-click kalandjáték, amelyet reneszánsz festményekből állítottak össze...
Az elmúlt napokban a dél-koreai értéktőzsde példátlan hullámzást mutatott: a Kospi index szerdán 12%-ot zuhant – ami történelmi egynapos esés –, majd csütörtökön közel 10%-os emelkedéssel visszakapaszkodott, ami 2008 óta a legnagyobb napi plusz...
Tipikus eset, amikor egy régóta stabil technológiát egy új versenyző fenyeget: a mára minden elektromos autóban és zsebben ott rejtőző lítium-ion akkumulátoroknak most igazán komoly kihívója akadt...
Kína a vártnál jóval óvatosabb gazdasági növekedési célt tűzött ki a következő évre, olyan alacsonyat, amilyet utoljára a kilencvenes évek elején látott a világ...
Mi történt ezen a napon a történelemben? Fordulópontok egy napon: Mendelejev először mutatja be a periódusos rendszert, az amerikai Legfelsőbb Bíróság kimondja a hírhedt Dred Scott-döntést, és a második világháború végjátékában az amerikaiak bevonulnak Kölnbe...
👀 A technológiai világ figyelmét jelenleg az MI köti le, de Max Hodak, a Neuralink társalapítója újabb terület felé indult: egy olyan agy–számítógép-interfészre összpontosít, amely hamarosan piacra kerülhet...
🔒 Egy orosz állampolgár az Egyesült Államokban bűnösnek vallotta magát a bűnszövetségben elkövetett csalás miatt indított perben, amelyet a Phobos zsarolóvírus üzemeltetése során követett el...
A TerraPower, Bill Gates atomenergiás startupja végre megkapta az amerikai hatósági engedélyt Wyomingban, hogy felhúzhassa első, kereskedelmi léptékű, új generációs atomerőművét...
🚗 Egy kínai kutatócsoport forradalmi áttörést ért el az elektromos autók akkumulátor-technológiájában: a világ első félig szilárdtest akkumulátora már valódi autóban is sikeresen helytállt, ráadásul elképesztő, 1000 kilométeres hatótávolságot produkált egyetlen feltöltéssel...
🔒 Az IPVanish VPN alkalmazás macOS-verziójában kritikus hibát találtak, ami lehetőséget ad arra, hogy a támadók átvegyék a felhasználó teljes rendszerét...
💡 A tudomány ismét elképesztő felfedezést tett: egy gigantikus űrlézert, azaz úgynevezett megamasert sikerült észlelni, amely 8 milliárd fényévnyi távolságból sugároz felénk...