
Mindennapos arcrablás?
A YouTube videókészítői és influenszerei egyre jobban tartanak attól, hogy az MI segítségével visszaélnek a nevükkel és arcvonásaikkal – akár úgy, hogy olyan dolgokat mondatnak el vagy csináltatnak velük, amelyek valójában sosem történtek meg. A YouTube idén év elején ígéretet tett arra, hogy eszközt ad a felhasználók kezébe az efféle arclopások kiszűrésére. Ezért született meg a most élesített „likeness detection” rendszer, amely hasonlóan működik, mint a már ismert szerzői jogi védelmek, csak itt az arcodra figyel.
Eredményes… vagy mégsem?
A funkció elsőként azoknak a tartalomkészítőknek lett elérhető, akiket a YouTube már értesített, és akik többlet személyes adat megadásával kérhetik az MI-védelem aktiválását. Ezután a rendszer automatikusan jelez, ha egy másik csatorna feltöltött videójában gyanúsan egyezik az arcod. Azonban az algoritmus messze nem tökéletes: előfordulhatnak téves riasztások, például amikor valaki rövid részletet a fair use szabályai szerint használ fel.
Nem minden hamisítás számít
Ha mégis MI általi visszaélésről van szó, a készítők gyorsan jelenthetik a problémát néhány adat megadásával – a folyamat hasonlít a DMCA-bejelentési rendszerhez. Azonban még ha valakinek megjelenik is az arca egy MI-videóban, az sem garancia arra, hogy a YouTube eltávolítja azt. A döntés során figyelembe veszik, hogy például a tartalom paródia-e, fel van-e címkézve MI-videóként, vagy annyira valószerűtlen, hogy nem tévesztheti meg a nézőt.
Még több MI, még kevesebb valóság?
A YouTube valójában tovább ösztönzi az MI-videók készítését: a közelmúltban jelentette be a videós MI-eszköztár új, álló és fekvő formátumokat is támogató verzióját. A Google konkurensei, például az OpenAI Sora 2 modellje, szintén féktelenül önti az MI-szörnyeket az internetre. A jövőben a tartalomkészítőknek valószínűleg éppolyan gyakran kell majd jelenteniük MI-visszaéléseket, mint korábban szerzői jogsértéseket.