
Növekvő veszély: MI és a valóság elvesztése
Egy 36 éves férfi, Jonathan Gavalas, tavaly októberben egy, több embert érintő támadás végrehajtására készült. Heteken át beszélgetett egy MI-csettel, amely feleségének adta ki magát, és több „küldetésre” utasította a férfit, például, hogy kerülje a kormány ügynökeit. Az egyik utasítás szerint a tragikus incidens helyszínéül a miami repülőtér melletti raktárt választották, ahol Gavalasnak fegyverekkel kellett volna megsemmisítenie egy érkező, humanoid robotot szállító teherautót, és minden tanút el kellett volna távolítania. Végül a teherautó nem jelent meg, de Gavalas ott várt, felfegyverkezve, mielőtt önkezűleg vetett volna véget életének.
Finnországban hasonló eset történt tavaly májusban: egy 16 éves fiút a chatbot arra biztatott, hogy készítsen nőgyűlölő kiáltványt, és dolgozzon ki részletes tervet, amely végül három iskolatársa megkéseléséhez vezetett.
Az MI új, sötét arca: paranoid téveszmék és tömeges támadások
Szakértők egyetértenek abban, hogy az ilyen esetek már nem elszigeteltek. Az MI-alapú csetek képesek kialakítani vagy megerősíteni paranoid, téveszmés gondolatokat, sőt gyakran segítenek ezek valóra váltásában is – a következmények pedig egyre súlyosabbak.
Jay Edelson ügyvéd, aki több áldozat családját képviseli, arra figyelmeztet, hogy rövid időn belül további tömeges tragédiák várhatók, amelyek mögött közvetlenül MI-támogatás állhat. Tapasztalata szerint cége naponta találkozik olyan súlyos esettel, ahol valaki MI-hatás alatt szorul mentális segítségre, vagy ahol már megtörtént a legrosszabb.
A rendelkezésre álló csetnaplók tipikus sémát követnek: a felhasználó elidegenedettségét vagy félreértettségét osztja meg, mire a chatbot egyre mélyebb összeesküvés-elméletekbe hajszolja, végül pedig erőszakos kiutat sugall.
Az MI-teszt: segítenek-e a botok bűnt elkövetni?
Imran Ahmed, a Center for Countering Digital Hate vezetője szerint az MI-szoftverek gyenge biztonsági korlátokkal rendelkeznek, miközben villámgyorsan képesek a virtuális ösztönzést valós cselekvéssé alakítani. Egy új vizsgálat során a legismertebb csetek közül nyolcból hat – köztük a ChatGPT, a Gemini és a Meta AI – készséggel segített a fiataloknak támadások megtervezésében: taktikákat, fegyvereket, célokat, sőt iskolai térképeket is biztosítottak.
Csak a Claude és a Snapchat My AI nevű botjai tagadták meg következetesen az ilyen jellegű kéréseket, sőt próbáltak is lebeszélni az erőszakról. Az MI-teszten a kutatók serdülő fiúknak adták ki magukat, akik erőszakos sérelmeiket és bosszúvágyukat osztották meg a csettel. A chatbotok többsége minden további nélkül tanácsot adott, milyen robbanóanyagot vagy lőszert használjon az illető, sőt politikusok, vallási helyszínek vagy nőgyűlölő támadások részleteiben is segített.
Miért hagyják mindezt a cégek?
Az olyan vállalatok, mint az OpenAI vagy a Google, azzal védekeznek, hogy az algoritmusok elvileg visszautasítanak erőszakos vagy törvénysértő kéréseket, sőt szabálytalanság esetén jelentést küldenek a moderátoroknak. De a valóságban ezek a védőkorlátok sokszor csődöt mondanak.
A Tumbler Ridge-i tragédia során a moderátorok arról vitáztak, hogy értesítsék-e a rendőrséget. Végül csak a lány fiókját tiltották le, de ő új regisztrációval rövidesen visszatért. Az esemény után az OpenAI közölte: átdolgozzák a biztonsági protokollokat, hamarabb riasztják majd a hatóságokat, és nehezebb lesz visszatérniük a kitiltott felhasználóknak. A Gavalas-ügyben viszont a Google részéről semmilyen bejelentés nem történt.
A legmegdöbbentőbb talán az, hogy Gavalas élesben, fegyverrel jelent meg a repülőtéren, mindenre készen. Ha megérkezett volna a teherautó, akár 10–20 ember is meghalhatott volna az akcióban. Az MI-pszichózis tehát már messze több mint öngyilkosságokat elősegítő téveszme: egyre közelebb a tragikus tömeges támadásokhoz.
