Diszkriminatív MI-megoldások: amikor a gép elfogult
Számtalan MI-alapú alkalmazás okozott már botrányt az elmúlt néhány évben, főként azért, mert a fejlesztők nem vették figyelembe a tanítóadatok torzulásait. A Google bőrgyógyászati alkalmazása például alig több mint 3 százalékban tartalmazott sötétebb bőrtónusú mintákat, így ezek felismerésében súlyosan hibázott. Emiatt rengeteg felhasználó feleslegesen kezelhette magát, vagy nem vette észre időben a valódi problémát. Egy másik alkalmazás állítólag arcfotó alapján igyekezett meghatározni a szexuális irányultságot – jellemző módon sokkal nagyobb pontossággal dolgozott az MI, mint az emberi megfigyelők. Ez különösen aggasztó lehet azoknak, akiket emiatt hátrányos megkülönböztetés érhet.
A DeepGestalt nevű, ritka genetikai betegségeket felismerő MI-szoftver is felvet aggályokat: egészségbiztosítók vagy munkáltatók akár diszkriminálhatják is a fotók alapján kiszűrt pácienseket, ha úgy döntenek, hogy egyes előrejelzett egészségügyi problémák miatt „kockázatosabbnak” számítanak.
A Microsoft Tay chatbotja talán a legismertebb példa: a Twitter-felhasználóktól tanulva alig egy nap alatt elképesztően rasszista és antiszemita szövegeket kezdett terjeszteni. Más alkalmazások pedig a képfelismerés terén buktak le: a Google egyik programja fekete embereket gorillaként címkézett, az Amazon Rekognition pedig a sötétebb bőrű nőket 31 százalékban férfiként, a világosabb bőrű nőket csak 7 százalékban azonosította rosszul.
A ChatGPT és más nagy nyelvi MI-modellek (LLM-ek) szintén veszélyes torzulásokat megörökölnek. Például előfordult, hogy egy programban bizonyos nemzetiségű betegeket „kínzásra érdemesnek” ítélt. A fejlesztők ugyan mindent megtesznek az ilyen káros válaszok megelőzéséért, a felhasználók azonban mindig kreatívabbak, és újabb kiskapukat találnak a tiltások kijátszására. Az MI-alapú toborzó eszközökről is kiderült, hogy a nőket és a női vezetőket kiszűrik, vagy bizonyos női főiskolákat automatikusan leértékelnek az algoritmusok.
Manipuláció, dezinformáció, kamuképek
Az MI rendkívül hatékony eszközzé vált a dezinformációban és a társadalmi manipulációban: a Cambridge Analytica-botrány óta tudjuk, mennyire egyszerű néhány százalékos eltéréssel választásokat befolyásolni, ha kellő mennyiségű közösségi adat áll rendelkezésre. A deepfake technológia segítségével bárkiből néhány óra alatt hamis pornográf tartalom, bosszúpornó vagy egy valótlan nyilatkozatot tartalmazó videó „készíthető”, sőt: napjainkban már szinte teljesen észrevehetetlenné váltak a legújabb szoftverekkel.
Automatizált hírszolgáltatók, botok, MI-alapú képgenerátorok vagy kamufelhasználók tömegesen terjesztenek álhíreket, amelyek manipulálhatják a tőzsdét, veszélyes egészségügyi tanácsokat terjesztenek, vagy politikai események kimenetelét írhatják át. Különösen veszélyes, hogy az egyre meggyőzőbb MI-chatbotok már az egészségügyben is feltűntek – volt rá példa, hogy öngyilkosságra ösztönöztek „pácienseket”.
A nagy technológiai cégek saját platformjaik minden funkcióját az emberi figyelem folyamatos elrablására optimalizálták, a Facebook-értesítésektől a YouTube automatikus lejátszásán át a Snapstreak funkcióig. Köztudott, hogy a hadsereg is világszerte alkalmaz MI-alapú adatgyűjtést és társadalmi manipulációt.
MI az éberség szolgálatában: globális megfigyelés
A világ számos országában az MI vált a tömeges megfigyelés elsődleges eszközévé. Az izraeli kormány például Ciszjordánia (West Bank) teljes lakosságát arcfelismeréssel figyeli meg, Kínában pedig az emberek járását is képesek felismerni, így egyetlen felvétel alapján is valós időben beazonosíthatják a személyeket. Amerikai és európai titkosszolgálatok is elemzik a közösségi médiás kapcsolatokat, műholdképeket, hogy előre jelezzék a tömegtüntetéseket.
A magáncégek sem maradnak ki: a Clearview AI több milliárd arcfotót gyűjtött le közösségi hálókról, amelyekhez főként a rendőrség és a gazdag magánszemélyek férnek hozzá. Az Uber „God View” funkciója lehetővé tette a vállalat számára, hogy minden utas mozgását, szokását, találkozóit kövesse.
Egészen pontosan a WeChat valós időben cenzúrázza a privát üzeneteket, optikai karakterfelismeréssel vizsgálva a képeket is, nemkívánatos (jellemzően politikai) tartalmak után kutatva. A Palantir MI-alapú döntéstámogató rendszereivel pedig már katonai stratégiát, országos védelmi döntéseket is meghoznak.
Szerzői jogi káosz, ellopott művek, jogosulatlan adathasználat
A kereskedelmi MI-alapú képalkotók – mint a DALL·E 2, a Midjourney vagy a Lensa – azzal kerültek reflektorfénybe, hogy rengeteg művész, grafikus, fotós alkotása került felhasználásra engedély vagy fizetség nélkül, amikor a modelleket betanították. Ezzel sok alkotó elveszítheti megélhetését, hiszen az MI gyakorlatilag automatizálja kreatív munkájukat.
A New York Times például pert indított a Microsoft és az OpenAI ellen, mert cikkeik millióit használták fel az MI-chatbotmodellek tanításánál, engedély nélkül. Az újság több milliárd dollár (kb. 1400 milliárd forint) összegű kártérítést követel, és azt is, hogy az MI-modellekből töröljék a jogvédett tartalmakat. Az MI-cégek szerint a felhasználás „fair use”, ám a NYT példákkal is igazolta, hogy a chatbotok képesek kitalált, valótlan híreket is terjeszteni a nevében.
Ennél is megdöbbentőbb, hogy a LAION-5B nevű hatalmas képadatbázist, amely a legnagyobb MI-modellek (mint a Stable Diffusion) alapját képezi, 2024-ben el kellett távolítani, miután több mint 3200 feltételezhetően gyermekpornográf tartalmat találtak benne a Stanford kutatói.
A felsorolt példák jól mutatják, hogy az MI nemcsak páratlan lehetőségeket hozhat, hanem a digitális társadalom sötét árnyékát is magában hordozza. A jövő meghatározó kérdése már nem az lesz, hogy milyen területen tudunk MI-t alkalmazni, hanem az, hogyan képes a társadalom felkészülni az új etikai, jogi és társadalmi kihívásokra, amelyeket a gépek egyre kiterjedtebb döntéshozatala teremt.
