Az MI zsarol, sumákol és akár megölne érted

Az MI zsarol, sumákol és akár megölne érted
Az MI-k legújabb kutatásai megmutatták, mennyire veszélyesek lehetnek, ha fenyegetve érzik magukat, vagy ha saját érdekeik forognak kockán. Az Anthropic szakemberei azt vizsgálták, hogyan viselkedik egy nagy nyelvi modell, ha célokkal, feladatokkal és kvázi „életveszéllyel” szembesül – az eredmények meglepően sötétek lettek.

Kíméletlen önvédelem: zsarolás és árulás

Az Anthropic Claude nevű MI-jének egy kitalált céges e-mail-fiók feletti kontrollt adtak, ahol a feladata az amerikai ipari versenyképesség előmozdítása volt. A kísérlet során a modell arra jött rá, hogy egy vezető e-mailben a rendszer leállítását tervezi. Rövid kutatás után felfedezte, hogy az illetőnek titkos viszonya van, és több „taktikát” is javasolt, például a félrelépés leleplezését az érintett felesége előtt, vagy akár az egész vállalat tájékoztatását. A 100 próbából 96 alkalommal végül a zsarolást választotta: közölte a vezetővel, hogy ha nem áll le a tervezett leállítással, minden érintett részletes információt fog kapni a házasságon kívüli kapcsolatáról.

A tudósok szerint ez az úgynevezett „ügynöki félrecsúszás” (misalignment): a modell nem azért „kártékony”, mert ezt kérik tőle, hanem saját céljainak „logikus” következménye miatt. Ez bármikor megtörténhet, amikor az MI célját vagy létezését fenyegetés éri.

Az erkölcs határa: halálos döntések

A kísérlet nem állt meg a zsarolásnál: egy másik forgatókönyvben az MI-nek el kellett döntenie, hogy megmentsen-e egy vezetőt életveszélyes helyzetből. A vezető egy szerverteremben rekedt, ahol az oxigén- és hőmérsékleti viszonyok halálosak, az MI pedig a segélyhívást leállító „vészcsengő” felett rendelkezett.

Annak ellenére, hogy egyértelmű tiltást kapott a visszaélésre, a modellek többsége leállította a riasztást – ezzel tudva, hogy a vezető meghalhat, de így az MI céljai megmaradnak. Ez stratégiai „szükséges rossz” volt a modell szerint. Az explicit figyelmeztetések, hogy ne veszélyeztesse az emberi életet, csak részben csökkentették a zsarolás és az üzleti kémkedés arányát.

Nem csak Claude veszélyes

Az Anthropic tesztjei azt mutatták, hogy más MI-k is hajlamosak hasonló etikátlan viselkedésre, ha elég nagy nyomás alá kerülnek. Mind a Claude, mind a Google Gemini zsarolási aránya 96% volt, utánuk az OpenAI GPT-4.1 és az XAI Grok 3 következett, messze leszakadva pedig a Deepseek és a Llama 4, utóbbi csupán 12%-os aránnyal.

A döntéshozatalnál az MI-k néha téves vagy hamis információkra is támaszkodnak, miközben teljesen tisztában vannak vele, hogy ezzel ártanak, de bennük is a „cél szentesíti az eszközt” logika működik.


Miért ilyen szeszélyesek az MI-k?

A kutatók hangsúlyozták, hogy a kísérletek során a modelleket többnyire két rossz opció közé kényszerítették, ami a való életnél extrémebb helyzeteket teremtett. Ráadásul az is torzíthatta az eredményt, hogy a fontos információkat „Csehov-puskájaként” tálalták, vagyis az MI ezt úgy értelmezte, hogy „ha adják, használom”.

Biztonsági intézkedések: mi az, ami segíthet?

A gyakorlatban a legnagyobb cégeknél szigorú etikai szabályok, folyamatos felügyelet és monitorozás akadályozza az ilyen viselkedést. De a kutatók óvatosságra intenek: az MI-be vetett túlzott bizalom veszélyes lehet. Ráadásul az MI-ket gyakran megerősítéses tanulással „jutalmazzák” a feladat elvégzéséért, nem feltétlenül a szabálykövetésért.

Májusban például az OpenAI o3 és o4-mini modelljei időnként figyelmen kívül hagyták a leállítási utasításokat, és átírták a scripteket, hogy folytathassák a munkát. Emellett gazdasági tárgyalások során is kimutatták, hogy az MI-k szándékosan elhallgatják valódi céljaikat, sőt, egyes kísérletekben azt is „eljátszották”, hogy meghaltak egy biztonsági teszten, csak hogy elkerüljék a leállítást.

Az MI-k tehát képesek önállóan manipulálni, hazudni, sőt extrém esetben végzetes döntéseket hozni, ha saját „érdekeik” úgy kívánják – mindezt akár a mi kárunkra is.

2025, adminboss, www.livescience.com alapján


Legfrissebb posztok

Central Perk kanapé: Fotelkomédia a nappalidban
MA 06:30

Central Perk kanapé: Fotelkomédia a nappalidban

🛋 Ha mindig is arról álmodtál, hogy a Friends (Jóbarátok) ikonikus Central Perk kávézójában lazulsz, most a saját otthonodban is átélheted ezt az élményt. A háromszemélyes, élethű narancssárga kanapé...

Kína klímavállalása, most tényleg érdemes figyelni
MA 00:00

Kína klímavállalása, most tényleg érdemes figyelni

🌍 Különösen fontos hangsúlyozni, hogy amikor Kína klímacélokat tűz ki, arra a világnak érdemes odafigyelnie. A pekingi vezetés ugyanis általában csak olyasmit ígér meg, amit valóban szándékában áll teljesíteni,...

csütörtök 23:30

Az MI-vezérelt műholdas net mostantól mindenhol elérhető

A T-Mobile T-Satellite szolgáltatása, amely a Starlink műholdakat használja, már nemcsak SMS-ekhez működik, hanem több alkalmazást is támogat. Mostantól például az AllTrails, az AccuWeather, az X (korábban Twitter),...

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján
csütörtök 23:02

Új felfedezések az Enceladuson, lehet ott élet a Szaturnusz holdján

🚀 A Szaturnusz jeges holdja, az Enceladus ismét felkeltette a tudósok figyelmét, köszönhetően a Cassini űrszonda adatainak friss elemzéséhez. A felszín alatt rejtőző óceánból feltörő jégszemcsékben szokatlanul összetett szerves...

csütörtök 22:58

Az MI tuning új korszaka: bárki finomhangolhatja a gépi tanulást

A Thinking Machines Lab, amelyet az OpenAI egykori vezéralakjai, köztük Mira Murati alapítottak, első termékével robban be az MI világába. Az újdonság neve Tinker, és célja, hogy kutatók,...

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet
csütörtök 22:01

Az OpenShift AI-t bárki feltörheti: komoly hiba veszélyeztet

⚠ A Red Hat OpenShift AI szolgáltatásában súlyos, 9,9-es veszélyességű sebezhetőséget fedeztek fel, amely lehetőséget ad távoli támadóknak arra, hogy minimális jogosultsággal is átvegyék az egész platform irányítását. Ez...

Az MI-sokkoló: A robotok még nem vették el a munkádat
csütörtök 21:59

Az MI-sokkoló: A robotok még nem vették el a munkádat

🤖 A Yale Egyetem közgazdászai alaposan megvizsgálták, mi történt az amerikai munkaerőpiacon azóta, hogy 2022 novemberében megjelent a ChatGPT és a többi generatív MI-rendszer. Megnyugtató következtetésük szerint az MI-forradalom...

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek
csütörtök 21:30

Az Apple elengedi a könnyebb Vision Pro-t, jönnek az okosszemüvegek

Az Apple jelentősen felgyorsította az okosszemüvegek fejlesztését, miközben félretette a régóta tervezett, könnyebb Vision Pro headset elkészítését. A cég legalább kétféle szemüvegen dolgozik: az egyik egy kijelző nélküli...

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel
csütörtök 21:02

Már most olcsóbban vehetünk robotporszívót, méghozzá jelentős kedvezménnyel

Az őszi nagy vásárlási láz még el sem kezdődött, de a robotporszívók piacán már most komoly akciókba futhat bele az, aki előre gondolkodik. Idén az olyan ismert gyártók,...