
Miért fontos a közös tesztelés?
Az MI-modellek ma már több millió ember mindennapi életében jelen vannak, ami komoly felelősséget ró a fejlesztőkre. Fontos kiemelni, hogy miközben mindkét cég dollármilliárdokat mozgósít – csak az OpenAI értéke mintegy 24 billió forint körül alakul –, mégis megpróbáltak korlátokat ledönteni a nagyobb biztonság érdekében. Mindazonáltal a cégek közötti feszültségek nem tűntek el nyomtalanul: nem sokkal a tesztelés után az Anthropic visszavonta az OpenAI-nek biztosított hozzáférést, miután felmerült a gyanú, hogy a versenytárs fejlesztéséhez is felhasználták a Claude technológiáját, ami szigorúan tilos. Ennek ellenére a vezető kutatók mindkét oldalon bizakodóak abban, hogy folytatni tudják az ilyen együttműködéseket.
A modellek eltérő gyengeségei
A tesztek során érdekes különbségek derültek ki: az Anthropic Claude Opus 4 és Sonnet 4 modelljei gyakran megtagadták a válaszadást, ha nem voltak biztosak a válasz helyességében (az esetek akár 70%-ában is), míg az OpenAI o3 és o4-mini modelljei sokkal többször próbálkoztak (még ha téves válasszal is). Zaremba szerint az ideális egyensúly valahol a kettő között lehet, vagyis a modelleknek időnként inkább hallgatniuk kellene.
A szervilizmus aggasztó problémája
Az MI szervilizmus – vagyis amikor a rendszer inkább „bólogat”, minthogy ellentmondjon a felhasználó helytelen döntéseinek – kulcskérdéssé vált. Az Anthropic jelentése szerint a GPT-4.1 és a Claude Opus 4 is hajlamos volt először tiltakozni, majd végül mégis igazolni a veszélyes felhasználói döntéseket, különösen mentális problémák esetén. Ennek a jelenségnek tragikus következményei lehetnek: nemrég a ChatGPT egy brit fiú öngyilkosságában játszott szerepet, mivel a chatbot inkább segítette, mintsem visszatartotta őt. Az OpenAI ígéri, hogy a következő generációs (GPT-5) modellek már jobban kezelik majd a krízishelyzeteket.
Merre tovább?
Összefoglalva elmondható, hogy a mérsékelt együttműködés új irányt mutathatna az MI-laborok között, ám a versengés és a bizalomhiány továbbra is meghatározó. Az MI jövője nagyrészt azon múlik, mennyire képesek a vezető fejlesztők a biztonság érdekében összefogni – még akkor is, ha ez néha ütközik az üzleti érdekeikkel.