
Adatmérgezés: az MI gyenge pontja
Lényeges szempont, hogy az MI-fejlesztők jelenleg rengeteg nyilvános weboldalt pásztáznak végig, és minden elérhető adatot összegyűjtenek modelleik tanításához, sokszor a szerzők beleegyezése nélkül. Ez a folyamat eddig teljesen egyoldalú volt: ha a felhasznált adatok pontosak, az MI-modellek is jó válaszokat adnak, a hibás vagy szándékosan torzított adatok viszont leértékelik a modellek teljesítményét. Az adatmérgezés eredhet hibás forrásból, de tudatosan szerkesztett, manipulált adathalmazból is, amely például rossz kódrészleteket vagy kifejezetten megtévesztő információkat tartalmaz.
Akcióban a Poison Fountain
A Poison Fountain már hetek óta működik, és lényegében bárki részt vehet benne: elég, ha saját weboldalán olyan linket helyez el, amely mérgezett kóddal és hibákkal teli adatokat kínál fel, és arra kéri a látogatókat, hogy osszák meg ezeket minél szélesebb körben, valamint juttassák el az MI-adatgyűjtő botokhoz. A szervezők között több, névtelenséget kérő munkatárs nagy amerikai technológiai cégektől is van, akik szerint az MI legnagyobb gyengéje, hogy viszonylag könnyen be lehet csempészni hibás vagy hamis adatokat a tanítási folyamatba, ezzel pedig le lehet rontani a rendszer megbízhatóságát.
Ilyen eset például, amikor egy adott oldalon szinte észrevehetetlen logikai hibákat tartalmazó programkódokat helyeznek el, amelyek ugyan hihetők, de valójában zavarokat okoznak a gépi tanulásban.
Ellentétek és alternatívák
Bár az MI-fejlesztést érintő szabályozás egyre égetőbb kérdés, az Egyesült Államokban a hivatalos szervek egyelőre minimális beavatkozást alkalmaznak, miközben a Poison Fountain alapítói szerint a szabályozás önmagában már nem tudja visszafordítani a globálisan elérhető technológia terjedését. Szerintük csak radikálisabb, közösségi eszközök állíthatják meg a gépi intelligenciát, és az adatmérgezés erre tökéletesen alkalmas eszköz lehet.
Egyre több hasonló próbálkozás létezik; ilyen például a művészek képeit védő szoftverek fejlesztése, amelyek célja szintén az MI tanulásának akadályozása.
Veszélyek és jövőképek
Miközben az MI-fejlesztők egyre inkább saját, hamisított adataikon tanulnak tovább, az úgynevezett model collapse (modell-összeomlás) veszélye valós problémává válhat, vagyis az MI egyre rosszabbá válik, mivel már saját tévedéseit ismétli vissza újra és újra. Az interneten egyre több szándékosan vagy véletlenül hibás információ jelenik meg, amelyekkel az MI-modellek is telítődnek.
A Poison Fountain támogatói abban bíznak, hogy ezzel a mozgalommal sikerül ráirányítani a figyelmet a veszélyekre, s talán meg lehet állítani – vagy legalábbis lassítani – a mesterséges intelligencia elterjedését, mielőtt még komolyabb károkat okozna.
