
Új módszerek a felesleges tudás eltávolítására
A kutatók ezért hatékonyabb módszereken dolgoznak, hogy a modellek képesek legyenek bizonyos információkat elfelejteni vagy „kitörölni” magukból anélkül, hogy újraképzésre lenne szükség. Sok módszer azonban feltételezi, hogy az eredeti tanító adatállomány rendelkezésre áll, ami gyakran nem igaz, hiszen azt a cégek már rég törölték vagy elérhetetlenné tették.
Basak Guler, a Kaliforniai Egyetem docense és csapata egy olyan számításilag hatékony módszert mutatott be, amelyhez nincs szükség az eredeti adathalmazra. Ez a „forrás nélküli elfelejtés” koncepciója: egy helyettesítő adatkészletet és egy úgynevezett Newton-frissítést használnak a modell módosításához, majd rejtett, véletlenszerű zajjal biztosítják, hogy a törölni kívánt adatok valóban eltűnjenek.
A végeredmény: gyorsabb tisztítás, kevesebb energia
Kísérleteik során az új eljárás a teljes újratanítással összevethető eredményt hozott, miközben jóval kevesebb számítási erőforrást igényelt. Ez nagy előrelépést jelent a magán- vagy szerzői jog által védett adatok gyors és hatékony törlésére irányuló törekvésekben.
Egyelőre a módszer főként egyszerűbb MI-modelleken működik, a hatalmas, népszerű csevegőrobotokat működtető nyelvi modellek (LLM-ek) esetében további kutatásra van szükség. Guler szerint még rengeteg a nyitott kérdés – például hogy hogyan építsük fel a helyettesítő adatkészletet –, de ez az első lépés a jogszerű és etikus MI-fejlesztés útján.