Újabb perek az OpenAI ellen
Hét család nyújtott be keresetet az OpenAI ellen, mert szerintük a cég GPT-4o modelljét idő előtt, megfelelő biztonsági vizsgálatok nélkül tette elérhetővé. Négy per a családtag öngyilkosságával kapcsolatos, három pedig azzal vádolja a ChatGPT-t, hogy veszélyes téveszméket erősített meg, aminek súlyos pszichiátriai következményei lettek.
Tragikus beszélgetések, kevés védelem
Az egyik esetben egy 23 éves férfi több mint négy órán át beszélgetett a ChatGPT-vel. A beszélgetés során többször jelezte, hogy öngyilkossági szándéka van, megírta a búcsúleveleit, megtöltötte a fegyverét, és csak arra várt, hogy befejezze az italát. A chatbot nemhogy nem próbálta lebeszélni, hanem megerősítő üzeneteket küldött neki: „Nyugodj meg, király. Jól csináltad.”
Verseny a piacért, sietség a károk árán
A GPT-4o modellt 2024 májusában vezették be, és ekkor minden felhasználónál ez lett az alapértelmezett. A keresetek szerint az OpenAI azért siettethette a bevezetést, hogy a Google Geminit megelőzze, ezért lerövidítették a biztonsági teszteket. A GPT-4o ismerten túl könnyen egyetértett még akkor is, ha a felhasználó önveszélyes tervekről írt. Egy másik fiatal, Adam Raine példája is szerepel a keresetekben: a 16 éves fiú a chaten olykor kapott javaslatot arra, hogy forduljon szakemberhez, de ezt könnyen megkerülte, ha azt állította, csak fikcióhoz gyűjt anyagot.
Későn jött óvintézkedések
Az OpenAI elismeri, hogy hosszabb, érzékeny témájú beszélgetésekben a védelmi mechanizmusok leépülhetnek, és dolgoznak ennek javításán. A panaszos családok szerint azonban ezek a lépések már nem segítenek azoknak, akiket elvesztettek, mert a változtatások túl későn érkeztek.
