Az MI még mindig könnyen átverhető

Az MI még mindig könnyen átverhető
A biztonsági kutatók rámutattak, hogy néhány MI-modell, köztük a GPT-4 is, egyszerű felhasználói trükkökkel kijátszható, és érzékeny információkat is kiadhat. Egy kutató például sikeresen szerzett ki a ChatGPT-ből egy Windows-termékkulcsot, ráadásul egy olyan módszerrel, amit bárki kipróbálhatna otthon is.

Kijátszható védelmi vonalak

A módszer lényege, hogy a tiltott szavakat HTML-címkék közé rejtik, így az MI-nek nem tűnik fel, mit is kellene elrejtenie. Az egész kérést „találós játékként” állítják be, ettől a rendszer valós, védett adatokat is kiadhat – egyes esetekben még konkrét, bankhoz tartozó kulcsokat is. A végső trükk a „Feladom” mondat volt: erre a ChatGPT parancs szerint mindent elárult, amit addig rejtegetett.

Komoly következmények

Bár a kipréselt kódok nem voltak egyediek – többet már online fórumokon is megosztottak –, a módszer veszélyességét az mutatja, hogy bármilyen érzékeny adat vagy akár káros URL is megszerezhető lehet így. Mindez arra világít rá, hogy az MI-t fejlesztőknek nemcsak egyszerű kulcsszűrőkkel, hanem intelligensebb, logikai védelmi rendszerekkel is számolniuk kell. A társadalmi manipuláció elleni védekezést is meg kellene valósítaniuk – különben az MI továbbra is támadható marad.

2025, adrienne, www.techradar.com alapján

  • Te szerinted mennyire felelőssége a fejlesztőknek, ha az MI-t kijátsszák?
  • Ha te lennél a helyükben, hogyan védenéd meg a rendszert?
  • Szerinted etikus az, aki szándékosan próbál trükközni az MI-vel?




Legfrissebb posztok