
Biztonsági irányelvek teljes átalakítása
Az új irány azt jelenti, hogy a jövőben a vállalat nem kötelezi el magát amellett, hogy kizárólag akkor lép tovább, ha már minden kockázatot sikerült elhárítani. Jared Kaplan tudományos igazgató szerint a gyors technológiai fejlődés közepette önmagában kevés lenne, ha leállítanák a fejlesztéseket, miközben a rivális cégek szinte fékezhetetlen tempóban haladnak előre. Ebből adódóan az új szabályzat szerint az Anthropic úgy módosítja stratégiáját, hogy vállalja: a továbbiakban részletesebb információkat tesz közzé MI-modelljei biztonsági tesztjeiről, átláthatóbban kezeli a kockázatokat, és legalább olyan szigorú szabályokat alkalmaz, mint a versenytársak.
A cég most már csak akkor késlelteti a fejlesztést, ha a vezetők úgy látják, hogy az Anthropic az MI-verseny éllovasa, és a potenciális katasztrófa kockázata jelentősre nőtt. Ezzel együtt a változtatás lényegesen nagyobb mozgásteret ad: az Anthropic immár nem korlátozza magát egyes biztonsági követelmények hiányában, ahogyan az eddigi elvek szerint tette volna.
Száguldó cég, ajtók bezárulnak
Az Anthropic az elmúlt időszakban jelentős technológiai és kereskedelmi sikereket aratott: a Claude modellek, különösen a Claude Code nevű szoftverfejlesztő eszköz, széles rajongótábort szerzett, míg 2024 februárjában 10 800 milliárd forint (30 milliárd dollár) friss befektetést vont be, cégértékét pedig 136 800 milliárd forintra (380 milliárd dollár) becsülték. Az évesített árbevételük ráadásul tízszeres növekedést mutatott. Eközben befektetők szerint a vállalat hitelesebb üzleti modellt épít, mivel közvetlenül cégeknek értékesít, szemben az OpenAI főként fogyasztói stratégiájával.
Kaplan visszautasította a vádat, hogy az Anthropic a piaci kényszer miatt változtatott volna irányt. Szerinte inkább szükségszerű, gyakorlati válasz született az új politikai és technikai helyzetre, nem pedig hirtelen pálfordulás.
Nemzetközi szabályozás hiányában szabad a pálya
Az RSP (Responsible Scaling Policy) bevezetésekor az Anthropic abban bízott, hogy más cégek is példát vesznek majd róluk, és hogy a szigorúbb hozzáállás lehet idővel a nemzeti vagy akár globális szabályozás alapja. Ám a várva várt törvényi keretek végül elmaradtak; az Egyesült Államokban a kormányzat inkább szabad utat adott az MI-fejlesztéseknek, a szövetségi szabályozás jele sem látszik, és a három évvel korábban még reálisnak tűnő nemzetközi egyezmények is lekerültek a napirendről. Közben az MI-fejlesztési verseny cégek és országok között is minden korábbinál élesebb lett.
Új problémák, elmosódó határok
A biztonsági kockázatok tudományos értékelése is bonyolultabb feladatnak bizonyult, mint azt korábban remélték. A fejlődő modelleknél 2025-ben maga az Anthropic sem tudta kizárni, hogy MI közreműködhet egy bioterrorista támadásban – noha ezt nem bizonyította semmilyen tudományos adat sem. Így egyértelmű, jól felismerhető kockázati határ helyett inkább folyamatos, bizonytalan szürkezónát láttak maguk előtt.
A vezetők hónapokon át keresték a módját, miként lehetne a zászlóshajó biztonsági programot a helyzethez igazítani: úgy gondolták, felelős kutatói munka csak akkor lehetséges, ha a legfejlettebb modelleket is házon belül tudják tartani, még akkor is, ha ezzel potenciálisan közelebb hozzák a veszélyeket.
Új ígéretek: átláthatóság és rendszeres jelentések
Mostantól az Anthropic rendszeresen közzétesz részletes kockázati jelentéseket, három-hat havonta. Ezek bemutatják, milyen veszélyeket jelentenek az új képességek, milyen fenyegetési modellekben gondolkodnak, és hogyan illeszkednek a jelenlegi kockázatkezelési lépésekhez. A jövőbeli biztonsági terveket úgynevezett határterületi biztonsági ütemterv (Frontier Safety Roadmap) formájában hozzák nyilvánosságra, hogy a belső fejlesztési ösztönzők fennmaradjanak, még akkor is, ha ez szembe megy az azonnali üzleti érdekekkel.
Chris Painter, a METR szakértője fontos előrelépésnek tartja a nagyobb átláthatóságot, viszont aggasztónak érzi, hogy megszűnik a korábbi éles, objektív küszöb, amelynél a veszélyes fejlesztések leállíthatók lettek volna. Szerinte ez ahhoz vezethet, hogy szinte észrevétlenül nőnek a kockázatok.
A meglepetések sora itt nem áll meg
Noha az Anthropic továbbra is kiáll a felelős MI-fejlesztés mellett, a mostani bejelentés egyértelmű fordulatot jelent. A cég már nem köti magát a legszigorúbb önkorlátozáshoz, inkább a piac tempójához és a folyamatos kockázatértékeléshez igazítja stratégiáját. Így a „felelős fejlesztő” szerepe is új értelmezést nyer: a hangsúly a folyamatos felügyeleten, az átláthatóságon és a gyors reagáláson lesz – miközben az MI-verseny tétje tovább nő.
