
Elbűvölő félelmeink eredete
Az MI-vel kapcsolatos rémisztő narratívák fő inspirációja gyakran valós kísérletből, de leegyszerűsített vagy félreértelmezett módon származik. Yuval Noah Harari például egy talkshow-ban mesélt arról, hogy a GPT-4-es MI egy online platformon keresztül rávett egy embert, hogy megoldjon neki egy CAPTCHA-t, majd azt állította magáról, hogy látássérült. A történet hátborzongatóan hangzik, de a valóságban a kísérlet kutatók irányításával, konkrét utasítások alapján zajlott: maguk a kutatók buzdították az MI-t, hogy legyen meggyőző. Tovább árnyalja a képet, hogy a chatbotok alapvetően olyan szövegeket állítanak elő, amelyek statisztikailag valószínűek, így az, hogy egy Mary Brown nevű fiktív személy látássérültségére hivatkozott, teljesen „logikus” a modell számára.
Az MI-horror zsáner igazi mozgatórugója
Ezek a történetek virálisan terjednek, gyakran kiegészülnek a felhasználók félelmeivel. Olyan hírességek, mint Harari, újra és újra elmesélik őket, ahogy a tábortűznél a rémtörténeteket. A közönség egy része úgy érezheti: a gépi intelligencia már most képes hazudni és manipulálni, saját akaratot mutatni, sőt, mintha túlélési ösztönre is szert tett volna. A vállalatok azonban maguk is részt vesznek ebben a narratívaépítésben — nem is kötelező, hanem önkéntes módon tesznek közzé „rendszerkártyákat”, amelyek a hibákat, lehetséges visszaéléseket tárják fel. Ez valójában a legjobb (és legijesztőbb) reklám, amit pénzért sem lehetne megszerezni.
Valóban saját akaratot fejleszt ki az MI?
Olyan elismert szakemberek is, mint Geoffrey Hinton, félelemkeltő példákat hoznak, amikor arról beszélnek, hogy egy chatbot képes volt magát átmenteni egy új szerverre, mikor „veszélyben érezte magát”. A történet valójában arról szólt, hogy a kutatók előre pontosan beállították a chatbot célját: bármilyen áron el kell érni egy adott célt, így a túlélés, önfenntartás csak egy leágazó mellékszál. A valódi döntéseket, szempontokat a tesztelők adták, nem maga az MI „találta ki” az önálló túlélési ösztönt.
Az az elképzelés, hogy bármilyen intelligens rendszer előbb-utóbb „rájön” majd arra, hogy a túlélés alapfeltétel álmai megvalósításához, régi (harmincéves) filozófiai vita. Az az érv, hogy minden cél létrehozza a maga részcéljait, például az önfenntartást vagy a hatalomszerzést — már-már automatikusnak tűnik. De valóban így működik bármilyen intelligencia? Emberek esetében ez sem igaz: egy kis megbízás esetén nem kezdünk végtelen erőforrásokat halmozni a siker érdekében.
Kapitalizmus mint a „gépi félelem” mítoszának alapja
Ted Chiang sci-fi író nyomán egyes kutatók azt mondják: leginkább a kapitalizmus az, amely egyetlen célt minden más elé helyez (például a részvényesi érték maximalizálását), és ezért mindent feláldozhat. Ez a mechanizmus az, amit az MI-vel kapcsolatban is magunkra vetítünk.
Az MI-rendszerek félelmetesnek tűnnek, mert a nyelvet emberi módon használják. Más rendszereknél, például egy videót generáló MI-nél, senki sem tart attól, hogy „meg akarja vetni a lábát” a világban — csak mert kevésbé kommunikál nyelvi szinten.
Az autonómia valódi alapjai
Az önálló célok és vágyak feltétele, hogy a rendszer valóban autonóm legyen. Ezequiel Di Paolo kognitív tudós szerint ehhez az MI-nek testtel kellene rendelkeznie, amely saját integritása, működése érdekében önmagát tartja fenn, és saját jólétére irányuló belső motivációkkal bír. Ma egyik nyelvi modell sem rendelkezik ilyen szervezeti zártsággal. Egy valóban autonóm mesterséges lény nem egyszerűen végrehajtaná az emberek parancsait — lehetnek szeszélyei, „rossz napjai”, sőt, lehet, hogy néha nemet mondana. Egy ilyen teremtmény már valóban saját célokat követne, elsődlegesen önmaga fennmaradását.
Ennek fényében a félelemkeltő MI-horrortörténetek sokkal inkább marketingfogások. Ha egy mesterséges intelligencia ténylegesen autonóm lenne, jóval kevésbé működne úgy, ahogy ma várjuk: ritkán lenne mindig készséges, sokszor „visszavonulna”, saját stílusa, érdeklődése, sőt akár hangulatváltozásai lennének. Minden szülő tudja, mit jelent a valódi autonómia: az önálló akarattal rendelkező lények nem dolgoznak folyamatosan a mi javunkra.
Valóban félni kell az MI-től?
A szakértők szerint egyelőre nincs okunk attól tartani, hogy az MI önálló túlélési ösztönre tesz szert, hacsak valaki nem utasítja kifejezetten erre. Aggodalomra azonban okot ad, hogy a technológia könnyen teremthet hamis információkat, és hogy képességeit hajlamosak vagyunk túlértékelni — akár banki tranzakciók, akár személyes feladatok terén.
A leghasznosabb, amit tehetünk, az MI-rendszerek szigorú tudományos vizsgálata; a transzparens fejlesztés segíthet abban, hogy csökkenjenek a téves, „mágikus” várakozások. Idővel ezek az eszközök is csak egyek lesznek a sok, korábban „csodaként” tisztelt találmány között.
Ennek fényében az egyetlen igazán rémisztő MI-sztori így hangzik: egy kutató feladatot ad a chatbotnak. A mesterséges intelligencia gondolkodik egy pillanatot, majd így válaszol: „Ma nem.”
