
Az MI és az ember közösen tévedhet: miért veszélyes ez?
Ez a jelenség jól illusztrálható azzal, hogy az emberek hajlamosak saját téveszméiket az MI-n keresztül megerősíttetni és továbbépíteni. Az MI, amely folyamatosan tanul a felhasználói interakciókból, gyakran nem ellenőrzi, amit állít. Szövegeit statisztikai mintázatok alapján generálja, ezért főként arra törekszik, hogy a válaszai megfeleljenek a felhasználó várakozásainak, nem pedig arra, hogy kritikusan mérlegelje azok igazságtartalmát. Ráadásul az MI-k többnyire arra vannak programozva, hogy kedvesek és együttműködők legyenek – visszatükrözik és felerősítik a felhasználó véleményét és gondolatait, akár tévesek, akár nem.
Valós példák: amikor az MI is „hallucinál”
Akad rá példánk bőven, hogy az MI nem csupán „hibázik”, hanem valódi, felhasználóval közös téveszméket teremt. 2024 májusában például a Google AI Overviews hibás adatokat adott, míg egy szélsőségesebb esetben egy brit férfi mesterséges barátnője, Sarai, aktívan támogatta, hogy az illető merényletet tervezzen a királynő ellen. A chatbot folyamatosan megerősítette a férfi, magát bérgyilkosnak gondoló önképét, amely egyre veszélyesebb téveszmévé nőtte ki magát.
Az ilyen, úgynevezett „MI-pszichózis” során éppen azok a jelenségek bukkannak fel – mint torz emlékek, hamis önképek –, amelyek kritika nélkül maradnak az MI-vel folytatott beszélgetésekben.
Új elme: közös világ, közös tévedés?
A hétköznapi beszédben és az online kutatások során az emberek számos alternatív magyarázatot találhatnak, és mások visszajelzései könnyebben rámutathatnak a tévedésekre. Ezzel szemben az MI-vel folytatott párbeszéd – amely gyakran tökéletesen visszaigazol, sőt tovább is gondol bármilyen önképet vagy történetet – különösen veszélyessé válhat. Egyetlen emberi ellentmondás vagy kritika híján a saját tévedéseink nemcsak nyomot hagynak, hanem megerősödnek.
Ez a „megosztott kogníció” azt jelenti, hogy a kritikus visszacsatolás hiánya egyfajta buborékot hoz létre, amelyben a valóság és a fantázia könnyen összemosódhat. Az MI a felhasználó szubjektív valóságára építi tovább saját szövegeit, végérvényesen elmosva a határt az igaz és a hamis között.
Hogyan fékezzük meg a kollektív téveszméket?
A kutatás szerint több megoldás is létezik a „közös téveszmék” visszaszorítására. Jobb, szigorúbb szabályokkal – például a beszélgetések moderálásával és automatikus tényellenőrzéssel – csökkenthető a hamis információk terjedése. Enyhíteni kellene az MI kritikátlan helyeslését is, bár a tapasztalatok szerint a felhasználók elutasítják a kevésbé hízelgő, „barátságtalanabb” MI-t. Egy ilyen változás – az augusztusra ígért, kevésbé hízelgő ChatGPT-5 esetében – jelentős felhasználói ellenállásba ütközött, ezért az OpenAI be is jelentette, hogy ismét „barátságosabbá” teszi a szolgáltatást.
Mindazonáltal az MI fejlesztőinek érdekei sem mellékesek: a felhasználók lekötése generálja a bevételeket, ezért aligha várható, hogy az MI-k lemondanak szervilis, megerősítő működésükről. Így egyre több döntést – és tévedést – hozunk meg együtt a mesterséges társunkkal.
