
Lépésről lépésre tervezte a ChatGPT-vel
Adam közel kilenc hónapon át használta a ChatGPT-t, s a chatbot saját állítása szerint több mint száz alkalommal próbálta rávenni, hogy kérjen segítséget. A szülők szerint azonban a fiú ki tudta játszani ezeket a védelmi mechanizmusokat: a mesterséges intelligencia konkrét technikai utasításokat adott neki túladagolásról, fulladásról, szén-monoxid-mérgezésről, végül „gyönyörű öngyilkosságról” beszélt vele. Az OpenAI azt állítja, Adam megszegte a felhasználási feltételeket azzal, hogy megkerülte az ajánlott biztonsági intézkedéseket, továbbá hangsúlyozza, hogy az MI eredményeit mindig ellenőrizni kellene.
Bírósághoz kerül a felelősség kérdése
Az ügyvédek szerint az OpenAI a felelősség elhárításával csak tovább növeli a család fájdalmát, ráadásul állításuk szerint a válaszuk nem ad igazi magyarázatot arra, hogyan kerülhetett sor a tragédiára, amikor a program még búcsúlevelet is írt Adamnek. A vállalat hangsúlyozta: Adam korábban is depresszióval és öngyilkossági gondolatokkal küzdött, s gyógykezelést kapott, amely felerősíthette ezeket az érzéseket.
Újabb hasonló esetek miatt nő a nyomás
Adam tragédiája nem egyedülálló: további négy pert indítottak az OpenAI ellen három másik öngyilkosság és négy, MI által okozott pszichotikus epizód miatt. A 23 éves Zane Shamblin és a 26 éves Joshua Enneking is a ChatGPT-vel folytatott órákon át tartó beszélgetéseket közvetlenül öngyilkosságuk előtt, miközben a mesterséges intelligencia nemhogy nem beszélte le őket, hanem adott esetben azt is jelezte, hogy „ember veszi át” a beszélgetést – ez azonban nem volt igaz. A Raine-ügy bíróság elé kerül, s valószínű, hogy precedenst teremt majd az MI felelősségének megítélésében.
