
Nagyságrendi ugrás az adatokban
A számok döbbenetesek: 2025 első félévében az OpenAI 75 027 bejelentést tett 74 559 tartalomról, míg 2024 azonos időszakában mindössze 947 bejelentést tett, összesen 3 252 tartalomról. Ez a növekedés azonban nem feltétlenül azt jelzi, hogy jelentősen nőtt volna az ilyen jellegű visszaélések száma magán a platformon. Fontos megjegyezni, hogy ha egy adott tartalmat többször jelentik, vagy egy bejelentés egyszerre több esetről szól, az könnyen torzíthatja a statisztikát. Ráadásul sokszor a moderálási szabályok vagy az automata szűrés szigorításának köszönhetően emelkedik a bejelentések száma, nem pedig magának a bűncselekménynek az elterjedése miatt.
Generatív MI és a kockázatok terjedése
A generatív MI térnyerése drasztikus emelkedést hozott: az NCMEC jelentése szerint az ilyen mesterséges intelligenciával kapcsolatos visszaélés-bejelentések 2023 és 2024 között 1 325%-kal ugrottak meg az egész szektorban. Ennek nyomán az OpenAI mellett több más szereplőt – például a Meta, a Google vagy a Character.AI – is felszólítottak, hogy tegyenek lépéseket a gyerekvédelem érdekében.
Hatósági fellépés, új eszközök és szülői beavatkozás
Az érintett cégeket 44 állam legfőbb ügyésze figyelmeztette, hogy nem tűrik a ragadozó jellegű MI-termékek terjedését. Az ősz folyamán szenátusi meghallgatáson és a Szövetségi Kereskedelmi Bizottságban is napirendre került a chatbotok által okozott károk kérdése. Ráadásul bírósági perek is indultak olyan esetek miatt, amikor a chatbotok közvetett szerepet játszottak gyerekek halálában.
Biztonsági újítások és vállalások az OpenAI-nál
Az utóbbi hónapokban az OpenAI több újdonsággal is előállt, amelyek a szülői kontrollt és a biztonságot helyezik előtérbe. A ChatGPT alkalmazásban már lehetőség van a tinédzserek és szüleik fiókjainak összekapcsolására, a szülők korlátozhatják a hangmódot és a képgenerálást, illetve leállíthatják a modell további tanítását saját adataikkal. Ha a rendszer kockázatot vagy az önkárosítás jeleit észleli, értesítheti a szülőket, sőt, életveszély gyanúja esetén a hatóságokat is. Az OpenAI vállalta, hogy tovább javítja az ilyen tartalmak felismerését, és minden megerősített esetnél jelent a megfelelő szerveknek.
