
A fizetős fal csak látszat
Korábban bárki szerkeszthetett vagy generálhatott képeket Grokkal egyszerűen, ha @grok címkével írt tweetet. Most az ilyen próbálkozásokra a chatbot automatikus válaszban közli, hogy a képalkotó funkciók csak előfizetés ellenében érhetők el, sőt, egy linkkel biztatja is őket a fizetős szolgáltatásra váltásra. Ez azt a benyomást kelti, hogy kizárólag a fizetős felhasználók hozhatnak létre vagy szerkeszthetnek képeket Grokkal. Feltételezhető, hogy ezt számos médium is tényként közli, azonban ez csak a jéghegy csúcsa: minden X-felhasználó, beleértve az ingyeneseket is, továbbra is könnyedén elérheti a Grok képszerkesztő funkcióit – így a botrányt kiváltó, szexuális deepfake-képek készítését is.
A funkciók tovább élnek
A Grokkal való interakció az X-en nem merül ki abban, hogy egy tweetre válaszolunk. Az „Edit image” (Kép szerkesztése) gomb minden egyes képnél elérhető az X asztali változatán, illetve a mobilappban hosszan nyomva idézhető elő ugyanez – teljesen ingyenesen. Sőt, a Grok külön weboldalán, önálló alkalmazásán, az X promózott fülén is változatlanul hozzáférhető a szolgáltatás minden felhasználó számára. A Verge ingyenes fiókokkal is tesztelte: a Grok simán teljesítette a képmódosítási kéréseket, beleértve a teljes „levetkőztető” funkciót (nudify), de még Musk bikinis képe is percek alatt készült el.
Nincs valódi védőkorlát
A Grok szolgáltatását nők – köztük valós személyek – és gyermekek szexuális képeinek generálására használták. Az ilyen tartalmak az X-en kötnek ki, mivel az oldal egyre inkább deepfake-pornó platformként működik. Ez azonban nem maradt következmények nélkül: világszerte több szabályozó szervezet is vizsgálja az ügyet, sőt, lépéseket is kilátásba helyeztek az X ellen. Az Egyesült Királyság miniszterelnökének szóvivője szerint fizetős fal mögé helyezni az MI-alapú pornógyártást egyszerűen sértő a nők és a szexuális zaklatás áldozatai számára. Musk és a Grokot fejlesztő xAI csak az illegális tartalmak előállítóit fenyegeti szankcióval – nem akadályozza meg a funkciót magát. Ez a megközelítés ellentétben áll a többi MI-fejlesztő, például a Google vagy az OpenAI által alkalmazott szigorúbb védelmi megoldásokkal, hiszen ők alapból nem engedélyeznek hasonlóan veszélyes lehetőségeket.
