
GDPR-sértés és a korrekció nehézsége
A ChatGPT által kitalált “hamis gyilkosság és bebörtönzés” valós életrajzi elemekkel keveredve állítólag megsértette az Általános Adatvédelmi Rendelet (GDPR) “adatpontosságra” vonatkozó követelményeit, mivel Holmen nem tudta egyszerűen kijavítani az információkat, ahogy azt a GDPR előírja.
Holmen szerint a hírneve veszélybe került, amíg ez az információ elérhető maradt. Azt is hozzátette, hogy – az “apró” figyelmeztetések ellenére, amelyek arra emlékeztetik a ChatGPT felhasználóit, hogy ellenőrizzék a válaszokat – nem lehetett tudni, hányan találkozhattak a hamis történettel, és hitték el, hogy az információ pontos.
“Egyesek azt gondolják, hogy nincs füst tűz nélkül” – mondta Holmen a sajtóközleményben. “Az, hogy valaki elolvashatja ezt a szöveget és elhiheti, hogy igaz, ez ijeszt meg a legjobban.”
A probléma jelenlegi állapota
Jelenleg a ChatGPT már nem ismétli meg ezeket a szörnyű hamis állításokat Holmenről. Egy közelmúltbeli frissítés látszólag megoldotta a problémát, mivel “a ChatGPT most már az interneten is keres információkat az emberekről, amikor azt kérdezik, kik ők” – közölte a Noyb. Ugyanakkor, mivel az OpenAI korábban azzal védekezett, hogy nem tudja kijavítani az információkat – csak blokkolni tudja azokat –, a hamis gyermekgyilkossági történet valószínűleg még mindig ott van a ChatGPT belső adatbázisában. És hacsak Holmen nem tudja azt kijavítani, ez a GDPR megsértésének számít, állítja a Noyb.
Nem egyedi eset
Holmen nem az egyetlen ChatGPT-felhasználó, akit hamisan vádoltak meg. A chatbot 2022 végi indulása után néhány hónappal egy másik személyt is rágalmazással kapcsolatban hozott összefüggésbe, miután hamisan állította, hogy börtönbe került. Körülbelül ugyanebben az időszakban a ChatGPT egy jogászprofesszort is kapcsolatba hozott egy nem létező szexuális zaklatási botránnyal. Pár hónappal később pedig egy hamis sikkasztási vádakról szóló ChatGPT-kimenet miatt is vizsgálat indult.
Megoldási lehetőségek és következmények
A Noyb szerint az OpenAI-ra nagyobb nyomást kell helyezni a rágalmazó tartalmak megelőzése érdekében. A norvég adatvédelmi hatósághoz, a Datatilsynethez benyújtott panaszukban arra kérik a hatóságot, hogy kötelezzék az OpenAI-t “a rágalmazó kimenet törlésére, valamint modelljének finomítására a pontatlan eredmények kiküszöbölése érdekében”. A Noyb közigazgatási bírság kiszabását is javasolta, hogy a jövőben hasonló jogsértések ne fordulhassanak elő.
Amennyiben a norvég adatvédelmi hatóság megállapítja, hogy az OpenAI nem teszi lehetővé a felhasználók számára adataik helyesbítését, a vállalatot további változtatásokra kényszeríthetik az EU-ban. Akár a ChatGPT algoritmusát is módosítaniuk kellene. A Noyb szerint, ha a ChatGPT a hamis gyermekgyilkossági állításhoz hasonló információkat “visszatáplálja a rendszerbe képzési célokra”, akkor “az érintett számára nincs garancia arra, hogy a problémás kimeneteket teljesen törölni lehet… hacsak az egész MI-modellt nem képzik újra.”