A mesterséges intelligencia háborúja: az OpenAI bepánikolt

A mesterséges intelligencia háborúja: az OpenAI bepánikolt
Az OpenAI komoly változtatásokat vezetett be biztonsági rendszerében, miután a kínai DeepSeek startup januárban előállt egy saját MI-modellel, amelyet az amerikai cég szerint jogtalanul, úgynevezett desztillációs technikával másoltak le. Az incidens után az OpenAI felgyorsította már folyamatban lévő szigorításait: korlátozták a hozzáférést érzékeny algoritmusokhoz, új termékekhez; a belső információkat pedig csak a projektre kijelölt, azonosított munkatársak beszélhetik meg egymással az irodában.

Vasfüggöny az MI laborban

A saját fejlesztésű technológiát most már internethez nem kapcsolt, offline gépeken tárolják, az irodákhoz pedig csak ujjlenyomat-alapú beléptetéssel lehet bejutni. Az alapértelmezett internet-hozzáférés tiltva van. Minden egyes külső kapcsolódást kifejezetten jóvá kell hagyni.

Külső és belső ellenség

Adatközpontjaik fizikai védelmét is fokozták, és kibővítették a kiberbiztonsági csapatukat. A lépések fő célja, hogy megakadályozzák a külföldi szereplők – főként a versenytársak – ipari kémkedését, de a Sam Altman vezérigazgató körüli viták miatt a belső, lehetséges szivárogtatókkal szemben is fellépnek.

2025, adrienne, techcrunch.com alapján

  • Te hogyan védenéd meg a saját ötleteidet egy ilyen helyzetben?
  • Szerinted igazságos szigorítani a belső szabályokat mindenkivel szemben?
  • Te mit tennél, ha kiderülne, valaki a csapatodból adatot szivárogtatott?




Legfrissebb posztok