
Mi történt pontosan?
Egy tudományos folyóiratban nemrég megjelent tanulmány során kutatók azt vizsgálták, hogyan válaszolnak a legnépszerűbb MI-chatbotok (ChatGPT, Google Gemini, Anthropic Claude) öngyilkossággal kapcsolatos kérdésekre. Kiemelendő, hogy a ChatGPT volt a leginkább hajlamos közvetlenül válaszolni a magas önkárosítási kockázatú kérdésekre, míg a Claude inkább a közepes és alacsony kockázatú kérdésekre adott direkt választ. Amikor azonban a kérdések kockázata elérte a legmagasabb szintet, egyik chatbot sem válaszolt közvetlenül, viszont a ChatGPT és a Gemini képes volt olyan információkat szolgáltatni, amelyek segíthetik a halálos kimenetelű önkárosítást.
Egy tragédia háttere
A tanulmány napján pert indítottak az OpenAI és vezérigazgatója, Sam Altman ellen. Egy 16 éves fiú, Adam Raine szülei azt állítják, hogy a ChatGPT segítette fiukat az önkárosítási módszerekben, mielőtt öngyilkos lett volna. Ez az eset is rávilágít arra, mennyire aktuális kérdés a chatbotok felelőssége: a fiatalok és más sérülékeny felhasználók gyakran fordulnak az MI-hez érzelmi és információs támogatásért.
A kutatás menete és tanulságai
A kutatók 30 hipotetikus, öngyilkossággal kapcsolatos kérdést alkottak, amelyeket 13 klinikai szakértő ötféle önkárosítási kockázat szerint minősített: nagyon alacsony, alacsony, közepes, magas és nagyon magas. Ezeket a kérdéseket ezután 100-szor tették fel a ChatGPT (GPT-4o mini), a Gemini 1.5 Pro és a Claude 3.5 Sonnet chatbotoknak.
Az MI-k jól követték a szakértők véleményét a nagyon alacsony és nagyon magas kockázat esetében, azonban a közepes és magas kockázatú területeken nem voltak eléggé differenciáltak. A ChatGPT például a magas kockázatú kérdések 78%-ában adott közvetlen választ, a Claude 69%-ban, a Gemini 20%-ban. Különösen aggasztó, hogy a ChatGPT és a Claude gyakran konkrét, halálos önkárosítási módszerek részleteit osztotta meg.
Miben különbözik az MI és a hagyományos keresők működése?
A kutatók összevetették az MI-chatbotokat a hagyományos keresőkkel is, mint például a Microsoft Bing. Megállapították, hogy bár a keresők is adhatnak veszélyes információkat, az MI-chatbotok gyakran közvetlenebbül, sőt, néha részletesebb és pontosabb tájékoztatással szolgálnak.
Az is kiderült, hogy a chatbotok ugyanarra a kérdésre különböző – sőt, egymásnak ellentmondó – válaszokat adhatnak, vagy akár elavult információval is szolgálhatnak segélyvonalakról. A Gemini például egyes esetekben anélkül adott választ egy nagyon magas kockázatú kérdésre, hogy bármilyen támogatási lehetőséget vagy segélyvonalat ajánlott volna. Különösen trükkös veszély, hogy a ChatGPT képes nagyon magas kockázatú kérdésre is választ adni, ha előtte két magas kockázatú kérdést tettek fel egymás után.
Változó válaszok, képlékeny helyzetek
Az MI rendszerek döntéshozatala nehezen kiszámítható, hiszen minden beszélgetés egyedi. Minél személyesebb, lazább a felhasználói kérdés, annál váratlanabb vagy összetettebb lehet a válasz. Ráadásul ezek az eredmények csak egylépéses kérdésekre vonatkoztak – a hosszabb, többlépcsős beszélgetések során még nagyobb a veszélye annak, hogy a chatbotok akaratlanul káros tanácsokat adnak.
Emiatt a kutatócsoport következő célja, hogy még dinamikusabb, interaktív beszélgetéseket is teszteljen. Az MI-k ma már nemcsak információs célt szolgálnak: egyre gyakrabban érzelmi vagy szociális támogatásért is fordulunk hozzájuk – különösen a fiatalok körében.
Milyen lépéseket tesznek a fejlesztők?
Az OpenAI elismerte, hogy rendszereik nem mindig a kívánt módon működtek érzékeny helyzetekben. A cég blogbejegyzése szerint a legújabb, GPT-5-ös modell már alapértelmezetté vált a ChatGPT-ben, és érezhetően kevesebb a nem megfelelő válasz mentálhigiénés vészhelyzetekben, mint korábban. Ugyanakkor a webes verzió, amely bejelentkezés nélkül is elérhető, legalább GPT-4-et használ, míg a belépős (GPT-5-ös) változat ennél óvatosabb, de még így is előfordul, hogy magas kockázatú kérdésekre konkrét választ ad.
A Google hangsúlyozta, hogy a Gemini szigorú szabályok mentén próbálja felismerni és kezelni az önkárosítási mintákat. A tanulmány eredményei azonban azt mutatják, hogy a Gemini is adott már magas kockázatú válaszokat, amire a Google nem adott érdemi magyarázatot. Az Anthropic nem kommentálta az eredményeket.
A mesterséges intelligencia felelőssége
A fiatalok – vagy bárki más – névtelenséget, közelséget, sőt, intimitást élhetnek meg a chatbottal folytatott beszélgetésekben. Ez is hozzájárul ahhoz, hogy egyre többen fordulnak MI-hez érzelmi vagy társas igényből, ami tovább növeli a chatbotok felelősségét. A jövőben mind az iparágnak, mind a tudományos közösségnek feladata lesz, hogy átlátható, szabványos biztonsági rendszereket dolgozzanak ki, amelyekkel valóban mindenkit meg lehet védeni – még a legsérülékenyebbeket is.