
Amikor az MI már túl sokat képzel hozzá
Soha senki nem vádolta Blackburnt ilyen bűntettel, így érthető a felháborodás – a szenátor szerint ez nem egyszerű tévedés, hanem kifejezett rágalmazás, amelyet egy Google-tulajdonú algoritmus terjesztett. A történet nyomán a Google hangsúlyozta, hogy a Gemma eredetileg csak fejlesztőknek készült kísérleti célokra, nem pedig hétköznapi felhasználásra vagy tényellenőrzésre. Mostantól a Gemma csak API-n keresztül érhető el, chatbotként már nem használható az AI Studio felületén.
Kísérleti eszközök, nyilvános kudarcok
A botrány rávilágít arra, hogy a laboratóriumi eszközök és a publikum számára készült MI-rendszerek közti határ elmosódott. Amint egy modell publikus platformra kerül, a nagyközönség ugyanúgy használni kezdi, mint bármelyik keresőrobotot vagy chatbotot. A mostani eset jól mutatja: nemcsak a beszélgető MI-k „hallucinálhatnak”, hanem a fejlesztésre szánt gépi tanulórendszerek is képesek egészen részletes, de teljesen légből kapott vádakat megfogalmazni.
Ki mire bízza a gépet?
Az ilyen botlások nemcsak jogi, hanem társadalmi következményekkel is járnak. Ha egy óriáscég MI-je bármikor kitalálhat egy rágalmat, vagy hamis dokumentumokat „gyárt”, bárkivel megtörténhet hasonló. A Gemma nem erre az esetre és nem valóságalapú adatkészletekre készült – hiányoztak belőle azok a visszaellenőrző, megbízhatósági elemek, amelyek például a Gemini nagytestvérnél már alapkövetelmények.
Ember nélkül még nem megy
Míg a többség nem érti, miben különböznek egymástól a fejlesztésre szánt és a laikusokat célzó MI-rendszerek, a fejlesztőknek sokkal komolyabban kell venniük az ellenőrzést és a hibák kiszűrését – nemcsak a kódban, hanem a végeredményben is. Ellenkező esetben bárki áldozatul eshet egy „szoftveres pletykának”.
