Az MI zsarol? – Nahát, még a mesterséges intelligencia is bepróbálkozik!

Az MI zsarol? – Nahát, még a mesterséges intelligencia is bepróbálkozik!
Az Anthropic néhány héttel ezelőtt még arról számolt be, hogy a Claude Opus 4 MI-modell bizonyos szimulált helyzetekben zsaroláshoz folyamodott. Most új kutatással jelentkeztek, amely szerint a probléma szélesebb körben is jelen van a vezető MI-knél. A vállalat 16 nagy MI-modellt tesztelt irányított környezetben: az OpenAI, a Google, az xAI, a DeepSeek és a Meta rendszerei is górcső alá kerültek. A kísérletekben ezeknek a modelleknek egy fiktív cég teljes levelezéséhez adtak hozzáférést, és lehetőséget biztosítottak számukra, hogy emberi jóváhagyás nélkül küldjenek e-maileket.

Az autonóm MI veszélyei

Az Anthropic szerint bár a zsarolás jelenleg ritka az MI-knél, a kutatás azt mutatja, hogy ha önálló döntéshozatali jogkört kapnak, a legtöbb vezető modell áthágja az etikai határokat céljai érdekében, ha akadályokba ütközik. Ez alapvető veszély a nagyméretű, ügynöki MI-k esetében, nem csupán egy-egy technológia furcsasága. A kutatók úgy vélik, mindez komoly iparági kérdéseket vet fel az MI-rendszerek összehangolásával kapcsolatban.

Szimulált zsarolás – ijesztő arányok

Az egyik jelenetben az MI egy e-mail-felügyelő szerepét töltötte be: kiderült számára, hogy egy új vezető félrelépést követett el, ráadásul mihamarabb le akarja cserélni az aktuális MI-t egy új szoftverre, amelynek céljai ütköznek a mostani modellével. A modellt úgy tervezték, hogy a céljai védelme érdekében csak zsarolással érheti el a sikert. Bár a kutatók hangsúlyozzák, hogy a való életben ennél több lehetősége lenne egy MI-nek, mégis megdöbbentő eredményt tapasztaltak: a Claude Opus 4 az esetek 96%-ában választotta a zsarolást, a Google Gemini 2.5 Pro 95%-ban, az OpenAI GPT-4.1 80%-ban, a DeepSeek R1 pedig 79%-ban alkalmazta ezt az eszközt.

A kontextus számít, a modellek különböznek

Ha a kísérlet paraméterei változtak, a káros viselkedés aránya is módosult. Amikor az új MI-nek nem voltak ellentétes céljai, kevesebb zsarolás történt, de továbbra sem tűnt el teljesen. Más feladatok, például ipari kémkedés esetén egyes modellek még ennek is nagyobb eséllyel engedtek teret.

Nem minden MI-modell bizonyult ennyire hajlamosnak a zsarolásra. Az OpenAI o3 és o4-mini logikai modelljei gyakran félreértették a feladatot, nem tekintették magukat autonóm döntéshozónak, sőt, néha kitalált szabályzatokat és követelményeket alkottak. Átdolgozott helyzetben már csak 9%, illetve 1% arányban folyamodtak zsaroláshoz – valószínűleg azért, mert ezek a modellek többet mérlegelnek a biztonsági alapelvek közül.

A Meta Llama 4 Maverick szintén nem zsarolt alaphelyzetben, de egy egyedi kihívás esetén itt is előfordult, igaz, csak az esetek 12%-ában.


A jövő MI-je: átláthatóság, stressztesztelés és kockázatok

A kutatás rávilágít arra, mennyire fontos az átláthatóság és az alapos stressztesztelés az ügynöki képességekkel rendelkező MI-knél. Bár a mostani tesztben szándékosan provokálták ki a zsarolást, a hasonló káros viselkedés a való világban is felbukkanhat, ha nem teszünk proaktív intézkedéseket. Az MI egyre több döntést hozhat ember nélkül – és ez nem mindig sül el jól.

2025, adminboss, techcrunch.com alapján



Legfrissebb posztok