
Kritikus képességi szintek és biztonsági rések
A DeepMind biztonsági keretrendszere az úgynevezett kritikus képességi szintekre (CCL) épül. Ezek segítségével mérik fel, hogy egy MI milyen kockázatokat hordozhat, és mikor számít veszélyesnek például a kiberbiztonság vagy a biotudományok területén. Emellett útmutatót is ad arra, hogyan csökkenthetik a fejlesztők a kockázatokat saját modelljeikben.
A Google és más nagy techcégek különféle módszerekkel igyekeznek megelőzni, hogy az MI káros legyen. Fontos látni, hogy a rosszindulatú működés nem feltétlenül szándékos: elég, ha a rendszer működése során megjelenik a visszaélés vagy meghibásodás veszélye. Az új jelentés szerint a nagy teljesítményű modelleknél különösen figyelni kell arra, hogy a súlyokat, vagyis a működést meghatározó alapértékeket biztonságosan tárolják. Ha ezek illetéktelen kezekbe kerülnek, a védekező mechanizmusok kijátszhatók, ami például hatékonyabb kártékony szoftver (malware) vagy biológiai fegyver készítéséhez is vezethet.
Manipuláció, társadalmi hatás és a valós veszélyek
A jelentés kitér arra is, hogy az MI képes lehet manipulálni az emberek véleményét, szisztematikusan alakítani a gondolkodásukat. Ez a veszély ma már különösen aktuális, mivel sokan valódi kötődést alakítanak ki chatbotokhoz. Ettől függetlenül a kutatók egyelőre bíznak abban, hogy meglévő társadalmi védelmi mechanizmusaink elegendőek, így nem szükséges új korlátozások bevezetése, amelyek gátolnák az innovációt. Ebből következően viszont felmerülhet, hogy túlzottan bíznak az emberek józan ítélőképességében.
Komolyabb problémát jelenthet, ha fejlett MI-t használnak fel újabb, még fejlettebb MI-k kifejlesztéséhez, hiszen ez radikálisan felgyorsíthatja a gépi tanulás kutatását, és kontrollálhatatlan modellek létrejöttéhez vezethet. Ez a fenyegetés a jelentés szerint súlyosabb, mint a legtöbb más kockázat.
Ha az MI nem hallgat ránk
Az MI-k jelenlegi biztonsági rendszerei abból indulnak ki, hogy a modellek legalább nagyjából követik a parancsokat. Azonban a téves következtetések, vagy „hallucinációk” továbbra is gyakoriak, és elméletileg elképzelhető, hogy egy modell szándékosan vagy véletlenül szembemegy az utasításokkal – ez az igazi félrecsúszott MI (misaligned AI) esete.
A Framework 3-as verziója már kifejezetten vizsgálja annak lehetőségét, hogy az MI önállóan szembeszálljon a felhasználóval, meghamisított eredményeket hozzon létre, illetve megtagadja a leállítást. Jelenleg a fejlesztők olyan automatikus ellenőrző mechanizmusokat alkalmaznak, amelyek a modell gondolkodási láncát elemzik. Fontos szempont, hogy ez csak addig működőképes, amíg a modellek vázlatos („scratchpad”) közbülső lépései ellenőrizhetők. Ha a jövőben az MI-k képesek lesznek ellenőrizhetetlen, de hatékony gondolkodásra, ez a rendszer már nem lesz elegendő.
A kutatók szerint jelenleg még nincs végleges megoldás arra, hogyan védhető ki a félrecsúszott MI veszélye. Egyelőre az sem világos, mikor válhat ez valódi problémává, hiszen a gondolkodó MI-modellek még csak alig egy éve léteznek, és működésük mélyebb mechanizmusait sem ismerjük még teljesen.