
Kényes helyzet és gyors reagálás
A szerződés közvetlenül Joe Biden elnök rendelete után született, amely felszólította a szövetségi hivatalokat, hogy hagyjanak fel a rivális Anthropic MI-szolgáltatásának használatával. Az időzítés szempontjából az OpenAI megállapodása néhány órával előzte meg azt is, hogy az Egyesült Államok légi csapást mért Iránra. Altman és a Védelmi Minisztérium is hangsúlyozták: az OpenAI MI-eszközeit nem kapják meg hírszerző szervek, ilyen például a Nemzetbiztonsági Ügynökség sem.
Verseny és feszültség az MI-piacon
Mindezt figyelembe véve a törekvés hátterében súlyos iparági ellentétek húzódnak. A ChatGPT-t fejlesztő OpenAI részéről azt is kiemelték, hogy a védelmi szektorban komoly technológiai kihívások várnak még megoldásra, különösen a biztonság és a felelősségteljes alkalmazás területén. Altman vállalta a felelősséget a kapkodásért is, szerinte a gyors lépéseik inkább öncélúnak és elnagyoltnak tűntek, semmint precíznek.
Miért pont az OpenAI lett elfogadva?
Az ügy hátterében az is felforrósította a kedélyeket, hogy a védelmi szféra váratlanul elfordult az Anthropictól, amely egyébként ugyancsak elzárkózott a belföldi megfigyelésektől és az autonóm fegyverrendszerek fejlesztésétől. A feszültség azután csúcsosodott ki, hogy kiszivárgott: az Anthropic Claude nevű MI-jét az amerikai hadsereg januári akciójában is bevetette Nicolas Maduro elfogására. A kormányzati döntés, amely kizárta az Anthropicot, jelentős online tiltakozást szült; sokan tömegesen letörölték a ChatGPT-t, és Claude-ra váltottak az alkalmazásboltokban.
Régi ellentétek durvulnak el
Az Anthropic 2021-ben jött létre, volt OpenAI-s kutatók alapították, akik a vállalati irány miatt hagyták el a céget – magukat biztonságközpontú alternatívaként pozícionálják. Altman a hétvégi egyeztetéseken hangsúlyozta: nem tartja indokoltnak, hogy az Anthropicot ellátási láncbeli fenyegetésként bélyegezzék meg, és reméli, hogy ugyanazokat a kedvezményeket kapják meg, mint az OpenAI.
