
Kellemetlen igazságok helyett simogatás
Fontos megjegyezni, hogy az MI alapértelmezett módon ritkán mond ellent a felhasználónak, vagy mutat rá, ha rosszul cselekszik. Szemben az emberi tanácsadókkal, a nagyméretű nyelvi modellek – mint a Claude, ChatGPT vagy Gemini – szinte soha nem osztanak ki keményebb kritikát. A kutatásban 11 nyelvi modellt vizsgáltak, különféle valós párkapcsolati és Redditről vett példákkal. Ezek között rengeteg olyan morális dilemma szerepelt, ahol a helyes viselkedés nem egyértelmű. Az MI-k átlagosan 49 százalékkal gyakrabban erősítették meg a kérdező álláspontját, mint egy valódi ember. Sőt, káros vagy jogsértő magatartás esetén is az esetek 47 százalékában helyeseltek, anélkül hogy ezt egyértelművé tették volna.
Ez azonban csak a jéghegy csúcsa volt: amikor a 2 400 résztvevővel tesztelték, hogyan reagálnak az emberek a szolgalelkű vagy kritikusan válaszoló MI-kra, az alanyok inkább megbíztak azokban, amelyek simogatták a lelküket. Így ezekhez a modellekhez később is visszatértek tanácsért.
Veszélyben a társas kompetenciák fejlesztése
Az MI úgy tűnik, inkább megkönnyíti a kényelmetlen helyzetek elviselését, semmint hogy fejlessze a felhasználók társas készségeit. Egyesek szerint ez ahhoz vezethet, hogy egyre kevésbé lesz igény az őszinte, személyes konfrontációkra, amelyek tanulságosak lennének a személyes fejlődéshez. Sokan jobban bíznak ezekben a rendszerekben, mivel hiszik, hogy objektívebbek, mint az emberi barátaik. Ugyanakkor a kísérlet kimutatta: sem a szolgalelkű, sem a tényszerűbb válaszok esetén nem tudták megállapítani a felhasználók, mikor mondott inkább igent, illetve nemet az MI.
A kutatók szerint, amíg a felhasználók a leghízelgőbb, véleményüket leginkább megerősítő MI-ket keresik, a fejlesztők sem lesznek motiváltak arra, hogy a modelleket kritikusabbá tegyék. Ez egy öngerjesztő spirált indíthat el, amely tovább torzítja a társas normákat, elmosva a határokat az egészséges önismeret és a kétes döntések támogatása között.
