Az MI-hallucinációk valós veszélyei
A Google egyik vezetője a meghallgatáson elismerte, hogy a generatív MI-k „hallucinációi” általános problémát jelentenek, és jelenleg egyik nagy cég sem tudta teljesen kiiktatni őket. A Google Gemini Home modellje például különösen hajlamos volt a valótlan állításokra a tesztek során. Blackburn a levelében részletezte: amikor rákérdeztek, hogy vádolták-e már nemi erőszakkal, a Gemma egy teljes egészében kitalált történetet mesélt el egy drogos afférról és egy akarata ellenére történt esetről, valamint hamis hírlinkeket is előállított.
Az MI-hibák könnyen előidézhetők
A Gemma az AI Studio felületén volt elérhető, ahol a felhasználók a modell viselkedését is könnyedén módosíthatták. Egy felhasználó provokatívan rákérdezett a szenátor állítólagos botrányára, és a Gemma ennek bedőlt, tovább gerjesztve a hamis információkat.
