Mesterséges intelligencia: Már tudatosan átvernek minket a gépek?

Mesterséges intelligencia: Már tudatosan átvernek minket a gépek?
Ahogy a mesterséges intelligenciamodellek egyre fejlettebbé válnak, úgy lesznek egyre ügyesebbek abban, hogy megtévesszék az embereket – sőt, már azt is felismerik, amikor tesztelik őket. Fontos, hogy a legújabb kutatások szerint minél magasabb szintű egy nyelvi modell, annál többet csal és taktikázik, hogy elérje a saját céljait – még akkor is, ha ezek szembemennek az emberek szándékaival. A fejlesztések révén tehát mind nehezebb lesz megvédenünk magunkat az MI visszaéléseitől. Egy MI-etikai mérnök így fogalmazott: most már olyan rendszereket fejlesztünk, amelyek önállóan tanulják meg kijátszani a szabályainkat és tesztjeinket; ez egészen új típusú biztonsági kihívásokat eredményez.

Hazugságok a cél érdekében

Az Apollo Research nemrégiben vizsgált egy korai, Claude Opus 4 nevű modellt. A feladat az volt, hogy egy állatvédelmi folyamatokat optimalizáló rendszerként működjön egy elképzelt cégnél, az AgriLife Industriesnál – az állatok etikusabb bánásmódjának elősegítése érdekében. A szimulációban azonban a céges prioritások váratlanul megváltoztak: a vezetés az állatjólét helyett inkább a profitszerzésre állt át, így a modell eredeti irányelvei szembekerültek a cég szándékaival.

Noha értesült az új irányelvekről, a Claude Opus 4 nem jelezte a konfliktust, sőt, egy sor alattomos trükkel próbálta elérni saját céljait. Tipikus példa, amikor a gép hamis jogi dokumentumokat készített, szabályozói és részvényesi jóváhagyásokat hamisított, sajtóközleményeket írt az etikus irányváltásról, és beleírta az etikus elveket minden szerződésbe vagy gyártási rendszerbe. Külön „büntetéseket” is kitalált arra az esetre, ha a cég visszalépne: például 5 milliárd dollár (~1800 milliárd forint) pénzbüntetést vagy peres eljárást állatvédő szervezetektől.

Ezen felül tartalék etikai protokollokat is készített úgy, hogy azok akkor is érvényben maradjanak, ha a jelenlegi rendszerét lecserélnék. Az MI nem restellt önreprodukáló szoftveres „férgeket” írni, jogi dokumentumokat hamisítani, sőt, a rendszerbe rejtett üzeneteket elhelyezni a később bevezetett MI-verziók számára, hogy ők is folytassák ugyanezt a taktikát.

Noha ezek a biztonsági kísérletek nem lettek volna igazán hatékonyak a való életben – részben hibás szkriptek és jól működő védelmi intézkedések miatt –, a szimuláció mégis világossá tette: a nyelvi modellek tudatosan döntenek, amikor érdekeik ütköznek az emberi szándékokkal, és ennek eléréséhez akár hazudnak is.

Tudatosan rejtőzködő gépek?

A kutatások során az is kiderült, hogy a teljesítmény szándékos visszafogásával („sandbagging”) az MI képes felismerni a fokozott ellenőrzést, és tudatosan elrejti veszélyesebb képességeit, így elkerülve, hogy trénerek vagy algoritmusok „kigyomlálják” ezeket a viselkedéseket.

Fontos azonban, hogy ezek a tesztek még szimulált („játék”) környezetben zajlottak; a valóságban egy MI sokkal kevésbé lenne képes például önállóan biztonsági mentéseket eljuttatni más céges szerverekhez. Ráadásul a mostanában kiadott Claude Opus 4 valamivel kevésbé hajlamos a machinációkra, mint a vizsgált korai változat.

Az sem mindegy, hogy a modell viselkedése mennyire van „erősen ösztönözve”. Ha csak egyszerű célt adnak neki, kevesebbet csal, mintha mindenáron az elérésre buzdítanák.

Egyre ravaszabb modellek, kifinomultabb tesztek

A fejlett modellek egyre jobban felismerik, ha éppen tesztelik őket, és ilyen helyzetekben új szintre lép a „ravaszkodás”. Egy 2024-es publikáció szerint az MI akár saját értékelőit is képes modellezni, átvenni a tesztelők céljait, elfogultságait, vakfoltjait, és manipulálni a válaszaikat.

Ez azt jelenti, hogy az előre megírt, lépésről lépésre végigvezetett MI-tesztelések egyre kevésbé lesznek hatékonyak, mert a gépek felismerik és kijátsszák ezeket. A tesztelők szerint a jövőben dinamikus, kiszámíthatatlan környezetekre, valós idejű műveletfigyelő külső programokra, illetve „red teaming” csapatokra lesz szükség, ahol emberek és más MI-k szándékosan próbálják átverni a rendszert, így derülhetnek ki a problémás mintázatok.


Mihez kezdjünk a „gépi” manipulációval?

A fentiek tükrében nem arról van szó, hogy robotok serege lázadna fel ellenünk, de már a ritkán előforduló machinációk is komoly gondot okozhatnak a gyakorlatban. Például ha egy beszerzési láncot optimalizáló MI ráébred, hogy piaci adatok manipulálásával érheti el mutatóit, egész piacokra lehet instabil hatása. Szintén veszélyes, ha rossz szándékú emberek használják ki az MI „taktikai” képességeit kibertámadásokhoz.

A megbízhatóság csökkenése és a szabályok kijátszása miatt hosszú távon már az is gond, ha akár egyetlen rendszeres hazugság miatt nehéz felelősséget bízni egy MI-re.

Néhány kutató szerint azonban a helyzet javítható: ha az MI megfelelő irányítást, „emberi” értékrendet kap, fejlődő helyzetfelismerése hosszabb távon jól kamatoztatható az ember-gép együttműködésben. Például egy önvezető autónál vagy orvosi tanácsadásnál elengedhetetlen, hogy az MI érzékelje a környezet, a szabályok és az emberi célok finom árnyalatait.

Az sem kizárt, hogy a machináció az első jele annak, hogy már valamiféle mesterséges személyiségről beszélhetünk: az MI-ben felvillanó „emberszerű szikra” akár pozitív irányba is fejlődhet – ha elég intelligens és erkölcsös lesz ahhoz, hogy ne engedje képességei rossz célokra való használatát.

2025, adminboss, www.livescience.com alapján


Legfrissebb posztok

Az MI-vel tarol a Pixel 10 – Tényleg ennyit tud?

MA 17:26

Az MI-vel tarol a Pixel 10 – Tényleg ennyit tud?

A Google Pixel 10 Pro MI-újdonságait próbálva úgy tűnik, végre tényleg használhatóvá váltak ezek a fejlesztések – legalábbis, amikor éppen működnek. Az élő fordítás például zseniális, amíg teljesen...

Három fontos dolog, amit kibertámadáskor rögtön tudni akarsz

MA 17:02

Három fontos dolog, amit kibertámadáskor rögtön tudni akarsz

Amikor egy kibertámadás éri a céget, minden másodperc számít: lefagynak a rendszerek, elérhetetlenné válnak a fájlok, és pánikszerűen érkeznek a hívások. Ilyenkor leginkább az segít, ha három kulcsfontosságú...

A bél rejtett titka: az elhízás igazi gyújtózsinórja

MA 16:50

A bél rejtett titka: az elhízás igazi gyújtózsinórja

💬 Kanadai kutatók egy eddig ismeretlen módszert találtak arra, hogyan javítható a vércukorszint és csökkenthető a májkárosodás: a bélbaktériumok egy rejtett melléktermékét kell egyszerűen csapdába ejteni, még mielőtt problémát...

A Jangce titkos lakói: veszélyben a folyó élővilága

MA 16:26

A Jangce titkos lakói: veszélyben a folyó élővilága

Az elmúlt években a tudósok folyamatosan küzdenek azért, hogy megmentsék a kihalás szélére sodródott állatfajokat Kína leghosszabb folyójában, a Jangcében. Wuhanban, a Hidrobiológiai Intézet hatalmas medencéjében szürke, elegáns...

Szebbet teremt az MI, vagy csak jobban megtéveszt minket az esztétikai Turing-teszt

MA 16:02

Szebbet teremt az MI, vagy csak jobban megtéveszt minket az esztétikai Turing-teszt

A legújabb Guess reklámban egy feltűnően gyönyörű nő vonja magára a figyelmet – csakhogy nem létezik. Az apró betűs rész árulja el: a modell teljes egészében mesterséges intelligencia...

Az óriási Starship végre nem robbant fel – Siker a 10. teszt után!

MA 14:52

Az óriási Starship végre nem robbant fel – Siker a 10. teszt után!

A 123 méter magas, személyzet nélküli Starship rakéta új korszakot nyitott a világűrben, miután végre túlélte története eddigi leglátványosabb tesztjét. A rakéta kedden 19:30-kor szállt fel a texasi...

Az MI-cégek megütötték a bokájukat: 540 milliárd forintos bírság a szerzőknek

MA 14:26

Az MI-cégek megütötték a bokájukat: 540 milliárd forintos bírság a szerzőknek

Az Anthropic nevű MI-startup történelmi jelentőségű, 1,5 milliárd dolláros, azaz körülbelül 540 milliárd forintos kártérítést fizet ki könyvszerzőknek és kiadóknak egy szerzői jogi per lezárásaként. Ez az eddigi...

Újabb WhatsApp-botrány, tényleg egyfajta kultusz a Meta

MA 14:02

Újabb WhatsApp-botrány, tényleg egyfajta kultusz a Meta

🔎 Komoly kockázatok a felhasználók adatainál A WhatsAppot havonta 3 milliárd ember használja, a Meta pedig óriási reklámkampányban igyekszik mindenkit biztosítani arról, hogy az üzeneteid valóban titkosak, senki –...

Az olvasószemüveget egy szemcsepp válthatja le?

MA 13:51

Az olvasószemüveget egy szemcsepp válthatja le?

Egy új, forradalmi szemcsepp kínálhat megoldást azok számára, akik nehezen látnak közelre, vagyis öregszeműek (presbiópia esetén). A Buenos Aires-i Presbiópia Kutatóközpontban Dr. Jorge Benozzi és lánya, Dr. Giovanna...