Tag: jailbreaking
hétfő 13:19
Az MI-ügynökök védelme még mindig gyenge
Az utóbbi időben két új, figyelemre méltó tanulmány is napvilágot látott a nagy nyelvi modellek (LLM) biztonságával és a prompt injection támadásokkal kapcsolatban....
szombat 14:26
Új trükk, ügyvédi szöveggel tévesztik meg a mesterséges intelligenciát
A Pangea biztonsági cég kutatói rámutattak, hogy a mesterséges intelligencia (MI) – különösen a nagy nyelvi modellek (LLM-ek) – egy újabb, meglepően egyszerű...
