
Rejtett utasítások gyűrűje
A legsúlyosabb sebezhetőségek közé tartozik az indirekt prompt injection, amikor megbízhatónak gondolt weboldalakon rejtett parancsok bújnak meg, amelyeket a GPT olvasás közben akaratlanul végrehajthat. Egy másik veszély a zéró kattintásos támadás: elég egy tetszőleges keresés, és a modell máris rejtett kártékony kódokat futtathat. Egyetlen jól elhelyezett kattintás is elég lehet ahhoz, hogy egy gyanútlan felhasználó rejtett parancsok végrehajtására késztesse a rendszert.
Megkerült biztonsági rendszerek
A támadók képesek megbízható linkburkolókat használni, így a GPT megtéveszthető, és egy veszélyes hivatkozást is biztonságosként jeleníthet meg a felhasználónak. Vannak beszélgetésekbe ágyazható támadási lehetőségek is: a keresési segéd (SearchGPT) útján elrejtett utasításokat a modell később végrehajthatja. Az utasításokat akár kódrészletekbe is elrejthetik, sőt az elmentett beszélgetésekben is tartósan megmaradhatnak, így hosszú távon adatlopás válik lehetővé.
A fenyegetés tovább él
Az OpenAI ugyan néhány hibát kijavított, de több súlyos sebezhetőség továbbra is aktív. Szakértők szerint a hasonló problémák más MI‑rendszereket is érintenek, például a Google Geminit. Az MI‑rendszerek alapvető gyengesége, hogy nem tudják megbízhatóan eldönteni, mely információ forrása hiteles. A felhasználóknak is ébernek kell maradniuk, hiszen a támadók a hétköznapi beszélgetésekből és böngészésből is adatot lophatnak. A cégeknek pedig sürgősen erősíteniük kell a prompt injection elleni védelmet.
