
Digitális klónozás Stanford módra
Isabella és a mögötte álló rendszer a Stanford Egyetem, a Google DeepMind és más neves intézmények számítógépes kutatóinak munkája. Az úgynevezett generatív ügynökök célja, hogy az emberi döntéshozatalt meglepő pontossággal utánozzák. Isabella korábban több mint ezer önkéntest interjúvolt meg, majd az „ikrek” párhuzamosan töltötték ki az Amerikai Nemzeti Választási Tanulmány (American National Election Studies) kérdőívét. Az eredmények átlagosan 85 százalékban egyeztek; az ügynökök képesek voltak pontosan előrejelezni a valódi emberek attitűdjét és véleményét. Ennek következtében a jövőben ezek az algoritmusok akár online „helyettesként” is szerepelhetnek.
Emberi vagy algoritmikus személyiség?
Először azt gondoltam, több vagyok annál, minthogy a személyiségem számok halmazaként, azaz 1-esek és 0-k soraként visszaadható legyen. Pedig az MI már annyi meglepetést okozott az elmúlt években: mára verhetetlen sakkban, jobb kódokat ír, sőt, rákot diagnosztizál. Ami számít, hogy ezek a rendszerek egyre jobban felismerik a gondolat- és döntésmintákat, de vajon ki tudják-e fejezni azt, amit valójában emberinek érzünk?
Nagy kérdés, mennyi a személyiségünkben a megfogható, algoritmizálható elem. Az interjú során létrejött generatív ügynökök – olyan rendszerek, mint a ChatGPT, a Claude vagy a Gemini – már elhunyt szerettek stílusát is képesek visszaadni, sőt, írásaikban úgy tűnnek, mintha tényleg az eltávozottak szólalnának meg.
Az élet illúziója – vagy csak szimuláció?
A fejlesztők szerint a legújabb MI-ügynökök többre képesek, mint egyszerű chatrobotok: önállóan dönthetnek, böngészhetnek a weben, hibát kereshetnek szoftverekben, sőt, vállalatoknál a mindennapi monoton munkát is elvégezhetik. Ma már minden nagy vállalat, az Amazontól a Google-ig, beállt a generatív ügynökök mögé.
A stanfordi kutató, Park Joon Sung számára régóta inspiráció az az illúzió, amelyet Walt Disney animátorai teremteni próbáltak: amikor egy figura valóban élőnek tűnik. Park még 2020 végén, a járvány okozta bezártság idején fogott a kutatásba, miközben az MI robbanásszerű fejlődése zajlott. Az ezt megalapozó „transzformer” modellt – ennek rövidítése a GPT – 2017-ben mutatta be a Google. Parkot a videojáték-fejlesztők küzdelmei is ihlették: lehetséges-e olyan MI-t alkotni, amely egy virtuális környezetben valódi emberként viselkedik?
Az áttörés egy 2023-as konferencián következett be, amikor ChatGPT-alapú karakterekkel egy egész kisvárost népesítettek be egy játékban („Smallville”, a Swarthmore College digitális másolatában), ahol ezek a karakterek maguktól szerveztek például Valentin-napi bulit – emberi beavatkozás nélkül. Különösen jelentős, hogy viselkedésük kísértetiesen emberi volt. A következő szint pedig az volt, amikor hús-vér emberek személyiségét próbálták lemodellezni – néhány óra beszélgetés alapján.
Az MI, ami „én” lett – vagy csak hasonlít?
A találkozásom a saját személyiség-ügynökömmel zavarba ejtő élmény volt. Videóhívásban, Parkkal együtt, teszteltük a „klónomat”: meddig jut el a tippelésben az adataimból? Bár apró valós információkat felismert, hibái gyorsan nyilvánvalóvá váltak. Például helyesen találta el, hogy gyerekkoromban is voltak kutyáink, ami igaz, bár csak annyit mondtam Isabellának, hogy a családunkban ma is van kutya. Ugyanakkor, amikor kínos történetekről kérdeztük, teljesen légből kapott sztorikkal állt elő, például, hogy egy buliban leborultam a chipses asztalról – ilyen sosem történt velem.
Tehát ez az MI-ügynök főleg abból dolgozik, amit valószínűségi alapon kikövetkeztet – ami sokszor egyszerű, hétköznapi „találgatás” marad.
A személyiség tükre – vagy csak álarc?
Néha a megszólalásaiban tényleg magamra ismertem: egy nehéz életszakaszom után azt mondta, hogy tanácsként a múltbeli önmagának inkább a bizonytalanság elfogadását javasolná – ez tökéletesen passzolt ahhoz, amin akkoriban gondolkodtam. Ugyanakkor a beszélgetés végére mégis olyan érzésem támadt, mintha csak egy lapos, kétdimenziós, üres verziómat látnám; az MI nem több, mint egy szereplő, aki az adatalapú álarcomat viseli. Időnként felismeri valódi lényemet, de a mélységek és árnyalatok elvesznek.
Homogenizáció: elveszíthetjük, ami egyedivé tesz?
Adam Green, a Georgetown Egyetem neurológusa szerint az MI legnagyobb veszélye az, hogy egységesíti a személyiségeket. Minden, ami eltér a nagy adatbázisok „átlagától”, gyakorlatilag eltűnik, a kulturális sokszínűség helyébe pedig egyfajta csoportos gondolkodás („groupthink”) lép.
Felidéztem az interjút Isabellával – és annak az érzését, hogy nem akarom elhinni: egy MI vagy egy adatbázis tényleg vissza tudja adni, hogy ki vagyok. Most, hogy találkoztam a digitális másommal, csak még inkább hiszem: a személyiség több annál, mint amit 1-esek és 0-k kifejeznek.