
Méregdrága szerződés, elbukott erkölcsi elvek
Az Anthropic akár 74 milliárd forint értékű szerződéstől eshet el, sőt, más védelmi beszállítókkal való együttműködéstől is eltilthatják, miután Donald Trump felszólította minden szövetségi ügynökséget, hogy haladéktalanul fejezze be az Anthropic technológiájának használatát. Ez nemcsak anyagi, hanem erkölcsi szempontból is óriási csapás.
Ígéretek és a szabályozás hiánya
A témával évek óta foglalkozó Max Tegmark, az MIT professzora úgy látja: az MI-fejlesztő cégek, köztük az Anthropic, saját kudarcuk kovácsai. Az iparág – az OpenAI, a Google DeepMind, az xAI és az Anthropic – éveken át hangoztatta, hogy önkorlátozás révén tartja féken saját technológiáit, sőt, nemrégiben az Anthropic is megígérte, hogy egyre erősebb MI-rendszereket csak akkor tesz elérhetővé, ha biztosak abban, hogy ezek semmiféle kárt nem okoznak.
Ennek ellenére az utóbbi időkben figyelmen kívül hagyták saját ígéreteiket: a Google elhíresült „Ne légy gonosz” (Don’t be evil) jelmondata eltűnt, az OpenAI a „biztonság” szót törölte a küldetésnyilatkozatából, az xAI felszámolta teljes biztonsági csapatát, az Anthropic pedig épp most dobta el legfontosabb vállalását, miszerint csak teljesen biztonságos MI-t ad ki.
Az MI-vákuum: amikor kevesebb jogszabály védi az embert, mint egy szendvicset
Az MI-cégek évek óta, főként az OpenAI és a Google DeepMind, folyamatosan lobbiztak a szabályozás ellen. Az érvelés lényege: ne aggódjatok, majd mi vigyázunk magunkra. Ennek eredményeképp az USA-ban ma kevesebb szabályozás vonatkozik az MI-re, mint egy szendvicsboltra. A szendvicskonyhákban azonnal leállíttatja az eladást az ellenőr, ha patkányokat talál, de az MI-re szinte nincs szabály, akkor sem, ha már korábban öngyilkosságokhoz köthető MI-barátnőket adnak el 11 éveseknek, vagy ha egy cég szuperintelligenciát akar piacra dobni, amellyal akár kormányt is meg lehetne buktatni.
Csúszós lejtőn a cégek: önvédelemből öngól
Ha ezek a vállalatok összefogtak volna és kérték volna a kormányt, hogy az önkéntes vállalásokat emeljék törvényerőre, most nem lenne ilyen szabályozatlanság – véli Tegmark. Ehelyett most a saját ellenállásuk miatt könnyedén megkerülhetővé váltak: mivel nincs törvény, amely tiltja, a kormány akár arra is felkérhetné bármelyiküket arra, hogy építsen MI-t amerikaiak megölésére. Saját magukat lőtték lábon, amikor akadályozták az MI-re vonatkozó törvényeket.
Az abszurd Kína-kártya
Az MI-lobbi rendszeresen azzal érvel, hogy ha az amerikai cégek nem lépnek, Kína fog. Csakhogy Kína épp most tervezi teljesen betiltani az MI-barátnőket, nem csak korhatárosítani. Nem azért, hogy Amerika kedvében járjon, hanem mert úgy látják, ezek gyengítik a kínai fiatalságot – és Kínát mint országot. Ráadásul aligha fog Xi Jinping eltűrni bármilyen kínai MI-t, amely veszélyeztethetné a saját államát. Az MI-verseny érvrendszere tehát alapjaiban sántít.
Nemcsak eszköz, hanem fenyegetés is
Az MI-t gyakran nemzetbiztonsági előnynek állítják be, de gyorsan változik a nézőpont: ahogy a szuperintelligenciák egyre közelebb kerülnek az önálló cselekvéshez, az amerikai biztonsági vezetők egyre inkább veszélyként tekintenek ezekre. Tegmark párhuzamot von a hidegháborúval: a versengés nem feltétlenül vezet erőegyensúlyhoz, sőt, lehet, hogy épp önpusztításhoz vezet.
Őrületes tempó, ijesztő kilátások
Az MI fejlődése a várakozásokat messze felülmúlva gyorsult fel. Míg néhány éve még a 2040–2050-es éveket jósolták az emberi szintű MI-re, már most elértük a PhD-szintű tudást egyes területeken – ilyen volt a Nemzetközi Matematikai Olimpián aranyérmet szerző MI. Egy korábbi elemzés szerint a GPT-4 fejlettsége 27%, a GPT-5 pedig már 57% az általános MI felé. Ennek alapján a végső áttörés nem várathat sokat magára, a mostani egyetemistáknak is csak pár évük lehet, mire az MI minden területet átsző.
Az MI-cégek válaszút előtt
Az Anthropic most tiltólistára került, a többi MI-óriásnak pedig döntenie kell: kitartanak-e az erkölcsi határaik mellett, vagy inkább elvállalják a szerződéseket? Sam Altman (OpenAI) már jelezte, hogy osztja az Anthropic álláspontját, míg a Google és az xAI egyelőre hallgat.
Van kiút: a valódi, törvénybe foglalt felelősség
Nemcsak lehetőség, hanem szükségszerűség is lenne, hogy az MI-cégeket ugyanúgy kötelezze felelősségre vonható jogszabály, mint más iparágakat: laboratóriumi vizsgálatok, független szakértői ellenőrzések nélkül egyetlen lakossági MI-szoftver sem kerülhetne piacra. Így eljuthatnánk egy igazi aranykorba, ahol az MI előnyei érvényesülnek, a létezés fenyegetése nélkül. Ennek fényében ideje új útra lépni.
