Az OpenAI kémkedéstől tart, komoly szigorítás jön

Az OpenAI kémkedéstől tart, komoly szigorítás jön
Az OpenAI jelentősen növeli kiber- és fizikai védelmét, miután egyre több a híresztelés arról, hogy külföldi cégek, főként kínai riválisok próbálnak hasznot húzni saját mesterséges intelligencia-fejlesztéseiből. Különösen a kínai DeepSeek felemelkedése aggasztó: ez a startup olyan „desztillációs” módszerrel dolgozik, amely során egy komplex MI tanár-modellből egy kisebb, gyorsabb diákmodellt hoznak létre, így másolják az OpenAI szakmai tudását.

Mindenhol szigor a központban

Az OpenAI új szabályokat vezetett be: csak előzetesen jóváhagyott munkatársak férhetnek hozzá érzékeny projektekhez, és ezekről legfeljebb zárt térben lehet beszélni. A fejlesztéseket kizárólag offline rendszereken tárolják, a belépést ujjlenyomat-olvasóval ellenőrzik. A vállalat szigorú hálózati politikát alkalmaz, ahol alapértelmezetten minden külső kapcsolat tiltott, csak külön jóváhagyással lehet csatlakozni.

Több ember, több védelem

Az OpenAI jelentősen növelte informatikai és fizikai biztonsági csapatainak létszámát, különösen fontos helyszíneken, például az adatközpontokban. Emellett 28 kutatási projektet támogatott, amelyekben olyan kritikus témákat vizsgálnak, mint a biztonságos kódgenerálás vagy az MI-alapú kibervédelem. Az MI fejlődése új veszélyeket is rejt, hiszen ezekkel a technológiákkal a támadók is fejlettebb eszközökhöz juthatnak.

2025, adrienne, www.techradar.com alapján



Legfrissebb posztok