
Az MI-modellek klónozása: olcsóbb és veszélyesebb verseny
Az amerikai vállalatok milliárdokat fektettek be a gigantikus méretű nyelvi modellek (LLM-ek) betanításába. Azonban, ha valaki képes kinyerni az MI belső logikáját, jelentősen olcsóbbá teheti egy új modell kifejlesztését és bevezetését. Ez komoly veszélyforrás, hiszen nemcsak a nagyvállalatok, de pénzintézetek és más érzékeny intézmények is céltáblává válhatnak. Nem hagyható figyelmen kívül, hogy a támadások kivédése egyelőre csak részben lehetséges: a Google képes volt időben felismerni és blokkolni a Gemini elleni egyik ilyen hadműveletet, ám a modelldesztillációs támadások gyakorlatilag teljesen kiirthatatlanok.
Nehéz védekezni, a támadók egyre trükkösebbek
Mivel ezek az MI-rendszerek nyilvánosak, a visszaélések felderítése sokszor csak álcázott fiókok tiltásával vagy jogi lépésekkel lehetséges. Ezenfelül a támadók, mint például a DeepSeek alkalmazottai, kifinomult technikákat fejlesztettek ki — elrejtett, harmadik féltől származó routereket és speciális programkódokat vetnek be, hogy titokban hozzáférjenek amerikai modellekhez, és ezen keresztül akár tömeges adatokat nyerjenek ki.
Az MI-védelemnek új szintre kell lépnie
Megemlíthető továbbá, hogy az MI-ipar önmagában nem képes felszámolni ezt a veszélyt: az OpenAI szerint ökoszisztéma-szintű védelemre van szükség, amelyhez a kormányzati beavatkozás is elengedhetetlen. Konkrét javaslatuk, hogy az API-routerek (programozott hozzáférést biztosító átjárók) kiskapuit is zárják le, valamint korlátozzák a kínai és más vetélytársak hozzáférését az amerikai számítási kapacitásokhoz és felhőinfrastruktúrához.
Miközben a védelmi megoldásokat fejlesztik, a klónozás egyre kifinomultabbá válik — a támadók szintetikus adatok generálásával és rejtett, többlépcsős módszerekkel dolgoznak. Az MI-háború új szakasza kezdődött, ahol a titkok ellopása és a védelem közötti küzdelem minden eddiginél élesebb.
