
Az „árnyékzóna” tartalmak felemelkedése
A Meta egykori mérnöke szerint a felsővezetés utasítására szándékosan engedték vissza a hírfolyamokba az úgynevezett „határeset” – jogilag ugyan nem büntethető, mégis potenciálisan ártalmas – tartalmakat, például nőgyűlöletet vagy összeesküvés-elméleteket. Az igazgatók azzal indokolták a lépést, hogy a részvényárfolyam zuhan, ezért minden eszközzel igyekezniük kell felpörgetni az aktivitást.
A részletek ismeretében más fényt kap a történet: a Meta kutatói világosan megfogalmazták, hogy algoritmusaik anyagi érdekeltsége nagyobb súllyal esett latba, mint a közösségi célok vagy a biztonság. Belső jelentések szerint a Facebook felkínált a tartalomgyártóknak egy olyan utat, amely a profitot maximalizálta, de az emberek jólétének kárára.
Hasonló jelenség volt tapasztalható a TikToknál is, ahol a dolgozók a politikusokat érintő panaszokat gyakran a gyermekeket vagy tinédzsereket sújtó tartalmak elé sorolták, hogy elkerüljék a szabályozási fenyegetéseket vagy a platform betiltását.
Algoritmusok, amelyek magukkal sodródnak
Az MI-algoritmusok valódi működése gyakorlatilag „fekete doboz”, amelybe a külső szemlélő alig lát bele. Egy, a TikToknál dolgozó mérnök elmondása alapján maguk a fejlesztők is minimális kontrollt gyakorolnak a mélytanuló rendszerek belső működése felett – számukra minden tartalom csupán egy sorszám az adatbázisban. A mérnök hasonlata szerint a különböző csapatok úgy működnek együtt, mintha egy autógyárban az egyik a motor, a másik a fék felett rendelkezne – abban bízva, hogy mindenki teszi a dolgát.
Amikor viszont a TikTok heti rendszerességgel alakította át ajánlórendszerét, hogy piacot szerezzen, egyre több „határeset” poszt, problémás vagy enyhén toxikus tartalom jelent meg – főként azoknak, akik már egy ideje pörgették a videókat.
A felhasználók visszajelzései szerint a tiltó- vagy beállítási opciók nem működnek megbízhatóan. A tizenévesek hiába próbálták jelezni, hogy nem kívánnak erőszakos vagy gyűlöletkeltő posztokat látni, ezeket mégis ajánlotta nekik a rendszer.
Nem kizárt, hogy az algoritmikus „rádióaktivitás” már rég túlmutatott az online tér határain: egy brit tini mesélte el, hogyan jutott el az MI-algoritmus révén a rasszista és nőgyűlölő nézetekig, amelyek feldühítették, és a való életben is viselkedésváltozást okoztak. Az antiszemita, szélsőséges, gyűlöletkeltő tartalmak „normalizálódását” a brit terrorellenes szakemberek is tapasztalták.
„Törölni kell a TikTokot!”
A TikTok egyik belső biztonsági csapatának tagja szerint a bejelentések elképesztő mennyisége miatt szinte lehetetlen hatékonyan szűrni az újabb és újabb veszélyes tartalmakat. Az MI-alapú moderáció miatt csökkentett létszám tovább nehezíti a problémás anyagok kiszűrését. Egyre több az olyan poszt, amely a terrorizmus, a szexuális erőszak, az emberkereskedelem vagy az abúzus témakörébe esik.
A BBC számára megmutatott bizonyítékok azt erősítik meg, hogy sok esetben egy jelentéktelen politikai bejegyzést magasabb prioritással kezeltek, mint egy kiskorú zaklatásával vagy zsarolásával kapcsolatos ügyet. Nem kizárt, hogy a cég vezetése számára fontosabb volt a politikusokkal való viszony ápolása, mint a gyermekek védelme – ezáltal csökkentve annak veszélyét, hogy a politikai döntéshozók betiltanák a platformot.
A belső munkatárs szerint a gyerekek védelme csak másodlagos. Véleménye határozott: a szülők a lehető legtovább tartsák távol a TikTokot gyerekeiktől.
A TikTok mindent tagad, szerintük a platformon milliók találnak közösségre és lehetőségre, a tinédzser-fiókokat pedig 50-nél is több alapértelmezett biztonsági beállítás védi, és folyamatosan fejlesztenek a káros tartalmak kiszűrésére.
Minden a pörgetésekből lett profit, a gyerekek védelme háttérbe szorult
2020-ban, a TikTok berobbanása után az Instagram Reels villámgyorsan elindult – ám megfelelő védelmi mechanizmusok nélkül. A belső kutatások szerint ezen a felületen sokkal nagyobb arányban jelentek meg zaklató, gyűlöletkeltő vagy erőszakos hozzászólások, mint az Instagram fő hírfolyamában; a zaklatás 75 százalékkal, a gyűlöletbeszéd 19 százalékkal, az erőszak és felbujtás 7 százalékkal volt gyakoribb.
A Reels felfuttatására a Meta 700 új embert vett fel, miközben a biztonsági csapat hiába kért két, gyermekvédelemre specializálódott, illetve tíz, a választási integritásért felelős kollégát, elutasították őket.
Volt mérnökök állítása szerint világos utasítás érkezett: lazítani kell a „határeset” tartalmak visszaszorításán, mert ezek növelték a felhasználói elköteleződést és a cég bevételét. Az óvatosság és a tartalomszabályozás helyett előtérbe került a „mindegy, csak zárkózzunk fel” mentalitás, és minden eszközt bevetettek a TikTok utolérésére.
Nem kizárt, hogy a cégek nem vállaltak felelősséget az online polarizációban játszott szerepükért – bár időnként próbáltak önkritikát gyakorolni, a hozzáállásuk végül inkább védekezővé vált. A Meta állítja, hogy szigorú szabályokat és ellenőrzött biztonsági eszközeket alkalmaznak, és az elmúlt évtizedben jelentős beruházásokat hajtottak végre a felhasználók védelme érdekében.
A részletek ismeretében más fényt kap a történet: bár a cégek a külvilág felé a biztonság védelmezőiként mutatkoznak, belső működésükben a gyerekek és tinédzserek védelme sokszor háttérbe szorul az üzleti érdekek mögött.
