
Kulcsszereplők hagyják ott az MI-etikai munkát
Az Anthropic MI-biztonsági kutatási vezetője idén látványos körülmények között mondott le, és vele együtt több vezető szakember is távozott ismertebb laborokból. Levelükben és interjúikban arról beszéltek, hogy az óriási verseny kiszorította a biztonsági aggályokat, és a vezetőség az alapértékeket is háttérbe szorította. Ezek a távozások már nem egyszerű iparági fluktuációk – erkölcsi kérdések és mély viták húzódnak meg mögöttük. Sokan úgy érzik, hogy az MI-fejlesztés már túlgyorsult ahhoz, hogy felelős kézben lehessen tartani. Később kiderült, hogy ezek a szakemberek nem bíztak többé abban, hogy a technológiai óriások képesek lesznek kezelni az MI által támasztott etikai és társadalmi kihívásokat.
A deepfake még veszélyesebb lett
A deepfake videók nem újdonságok, de most már bárki elkészítheti néhány perc alatt olyan felvételeket, amelyekhez korábban profi stúdió kellett. Mindez különösen aggasztó, mert egyre több bejelentés érkezik kiskorúakat érintő visszaélésekről, illetve teljesen hamis, embereket lejárató tartalmak terjedéséről. Ha már nem lehet biztosan hinni semmilyen képben vagy videóban, az teljesen aláássa a közös valóságot. Remélhetőleg a szabályozók és a platformok mostantól nagyobb súlyt fektetnek a védelemre és a felismerés javítására, de az eddigi károkat ez sem semmisíti meg.
A valóságba is beszivárognak az MI-hibák
Az MI korábban leginkább képernyőkön hibázott, de mostanra autók vezetését, raktárak irányítását vagy drónok működését befolyásolja. Apró jelek vagy matricák megzavarhatják a szenzorokat, így az MI rosszul értelmezheti a környezetet. Egy laborban ez csak egy vicces hiba – egy forgalmas úton viszont halálos baleset is lehet a vége. A digitális támadók számára is egyre vonzóbb célponttá válik a fizikai világban működő MI. Ha ezek a rendszerek elterjednek, az infrastruktúra támadhatósága is nő, és hamar tanulhatunk a veszélyekből, mindannyian a saját kárunkon.
Reklámok a ChatGPT-ben: csúszós lejtő
Az OpenAI nemrég hirdetéseket vezetett be a ChatGPT-ben, ami komoly vitát váltott ki. Egy vezető kutató is nyilvánosan fejezte ki aggályait amiatt, hogy így az MI túlságosan manipulálhatja a felhasználókat. Az MI nemcsak az ismereteinket és szokásainkat ismeri, hanem pénzügyi érdekek is vezérelhetik a válaszait. Így a határ az asszisztens és a manipulátor között vészesen elmosódik. A hirdetés nem feltétlenül rombol mindent, de világos szabályozás, átláthatóság és szigorú elválasztás szükséges, különben a korábbi botrányok könnyen megismétlődhetnek.
Durvuló hibastatisztika
Az MI-hibák száma rohamosan nő. 2025 novembere és 2026 januárja között 108 új, MI-vel kapcsolatos eset került be az incidensadatbázisba, ezek között akadtak pénzügyi visszaélések, veszélyes tanácsok és az emberi biztonságot fenyegető félreértések is. Talán részben csak azért tűnik így, mert több mindent dokumentálnak, de aligha csak ennyi a magyarázat. Egy alig pár éves technológia máris rengeteg kárral jár együtt.
Tényleg itt a világvége?
A világvégétől talán még messze vagyunk, de a jelenlegi folyamatokat már nem lehet figyelmen kívül hagyni. Az apokalipszis talán nem kopogtat holnap az ajtónkon, de a problémák súlyosak, és a közöny könnyen tragédiához vezethet. Az MI nem fogja lerombolni a világot – de könnyen elérheti, hogy így érezzük.
