‘A tényeket nem lehet kockadobással eldönteni’
A sajtószabadságot védelmező szervezetek arra kérik az Apple-t, hogy álljon le az “éretlen” generatív AI rendszerének használatával, miután az hibásan tudósított a BBC egyik híréből. Az eset szerint a UnitedHealthcare vezérigazgatóját gyanúsították volna lövöldözéssel, majd Louis Mangione-ról azt közölték, hogy öngyilkos lett.
Az RSF (Riporterek Határok Nélkül) kijelentette, hogy az Apple AI hibás jelentése – miszerint “Luigi Mangione lelőtte magát” – újabb bizonyíték arra, hogy a mesterséges intelligencia nem képes megbízható információt nyújtani a nyilvánosságnak. Az Apple mesterséges intelligencia rendszere, amely az Egyesült Királyságban december 11-én kezdte meg működését, kevesebb mint 48 óra alatt követte el ezt a nyilvános hibát.
“Ez a hiba rávilágít arra, hogy az AI rendszerek még akkor sem tudnak állandó minőségű információt biztosítani, ha újságírói forrásokra támaszkodnak,” mondta az RSF. “Az AI rendszerek működése, amely valószínűségeken alapul, eleve kizárja őket, mint megbízható technológiát, amelyet a média használhatna a közönség számára.”
Hiányos pontossága miatt az RSF úgy véli, hogy az AI-t nem lenne szabad ilyen célokra alkalmazni, és felszólította az Apple-t, hogy távolítsa el ezt a funkciót az operációs rendszereiből.
“A tényeket nem lehet kockadobással eldönteni,” fogalmazott Vincent Berthier, az RSF technológiai és újságírói részleg vezetője. “Felszólítjuk az Apple-t, hogy felelős döntést hozzon a funkció eltávolításáról.”
“Az automatikusan generált téves információk, amelyeket egy médiaforrásnak tulajdonítanak, komoly csapást mérhetnek a forrás hitelességére, és veszélyeztetik a közönség jogát a megbízható hírekhez,” tette hozzá Berthier.
Az Apple még nem közölte, hogyan tervezi kezelni a problémát. A BBC saját panaszt nyújtott be, de az Apple nem kívánt nyilatkozni az ügyben a brit műsorszolgáltatónak.
A gyakori hibák árnyékában
A BBC szerint ez nem az első eset, amikor az Apple AI összefoglalói félrevezetőek voltak. Novemberben egy ProPublica újságíró hívta fel a figyelmet arra, hogy az AI tévesen jelentett egy hírt Benjamin Netanyahu izraeli miniszterelnök letartóztatásáról, és ezt a New York Times-ra hivatkozva tette, ami arra utal, hogy az Apple Intelligence rendszeresen félreérti a napi híreket.
A Google AI keresési eredményei is megtévesztették az embereket, például csaló linkeket tüntettek fel, vagy arra ösztönözték a felhasználókat, hogy sajtot tegyenek a pizzára és sziklákat egyenek.
Joghézagok, amelyek veszélyeztetik az információs ökoszisztémát
Berthier kijelentette, “Az európai AI törvény, bár ebben a témában világszinten a legfejlettebb, nem sorolta a manipuláló információs AI rendszereket a magas kockázatú kategóriába, így egy nagy jogi hézag maradt. Ezt a hiányosságot azonnal kezelni kellene.”
A The Register megkereste az Apple-t az ügy kapcsán, hogy megtudják, mit terveznek tenni a problémával, miszerint az AI korán ítél, és az RSF-et, hogy kaptak-e választ az Apple-től. Egyelőre egyikük sem válaszolt. ®