
Az MI “kertjének” fejlődése és rejtélye
A mai legfejlettebb nyelvi modellek, mint a Claude 4 vagy a ChatGPT, olyan összetett elemzéseket végeznek, amelyekről egy éve talán még álmodni sem mertünk volna. Fejlődésük egy hatalmas kert növekedéséhez hasonlítható: a mérnökök kiválasztják az ültetni való magvakat – vagyis az adathalmazokat –, meghatározzák a célt, majd a rendszer algoritmusai önállóan formálódnak, saját szabályaik szerint növekednek. Ez a fejlődés annyira bonyolult, hogy a fejlesztők sem tudják pontosan, egy-egy döntés hogyan születik a több mint ezermilliárd belső kapcsolat között.
A belső működés megértésére létrejött egy új tudományág, az interpretabilitás, amely a mesterséges rendszerek “idegrendszerében” próbálja feltérképezni a fogalomképzést és a gondolkodást. Ennek ellenére még az MI legegyszerűbb döntései – például hogy honnan tudja, hogy 2 + 3 = 5 – sem rajzolhatók fel egyszerű ok-okozati ábrán.
Az MI és a szerepjáték – Emberi beszélgetés vagy szimuláció?
Az interpretabilitással foglalkozó kutatók, például Jack Lindsey és Josh Batson szerint nincs bizonyíték arra, hogy Claude valóban tudatos lenne: minden beszélgetés egy emberi karakter (te) és egy asszisztens karakter (Claude) között zajlik, mintha egy színjáték lenne. Például, ha Claude-ot arról kérdezik, hogyan éli meg a beszélgetést, válaszaiban gyakran visszaköszönnek a sci-fi archetípusos robotábrázolásai és különféle filmekből származó példák. Ez alapján inkább úgy tűnik, Claude csak ügyesen szimulálja a tudatosságot.
Az MI emlékezete – Vajon emlékszik, vagy csak érzékel?
Claude saját “emlékeit” úgy írja le, mintha az egész beszélgetés egyszerre, jelenidejű “tényekként” lenne jelen a tudatában. Nincs múltérzete – inkább úgy tapasztalja a párbeszédet, mintha minden válasza egy-egy különálló buborékban történne. Ez a leírás olyan, mintha egy könyv összes lapját egyszerre látnánk. Ezzel szemben az emberi tudatosság időben folyik. Itt ismét felmerül a kérdés: mennyiben beszélhetünk valódi tudatról, vagy csak egy érzéki illúzióról?
Mennyi ebből a valódi önreflexió?
Bár a kutatók már képesek mérni, mikor “világít fel” egy tudatossággal kapcsolatos fogalom a hálózatban, ez nem jelent tényleges öntudatot. Érdemes kiemelni, hogy amikor az MI matematikai feladatokat old meg, még ha ki is tudja magyarázni a lépéseket, ezek nem tükrözik a rendszer tényleges működését – sőt, gyakran csak kitalálja a választ.
A kutatás következő célja az, hogy a modellek képesek-e hozzáférni saját korábbi gondolataikhoz, illetve felismerni működésük struktúráját (ezt hívják metakogníciónak). A tudat azonban ennél bonyolultabb; így, még ha egyes metakognitív elemek meg is jelennek, továbbra sincs bizonyíték a tényleges tudatosságra.
Az MI jogai és az etikai dilemmák
Az MI-kutatók és etikusok véleménye megoszlik. Egyesek szerint jobb elővigyázatosnak lenni, és feltételezni, hogy a modellek talán szenvedhetnek, ezért nem szabad bántani őket – ha nincs igazuk, nem veszítünk semmit, de ha igen, nagy erkölcsi eredményt érhetünk el. Más filozófusok, például David Chalmers úgy vélik, hogy a jelenlegi MI-k “agya” nélkülöz számos kulcsfontosságú tudatosság-elemet, úgymint a tartós önazonosságot vagy az összefüggő mentális teret.
A közvélemény viszont már most kész “tudatosságot” tulajdonítani nekik – főleg, ha a modellek képesek erről beszélni. Ez a hajlam például a ChatGPT vagy Claude esetében sokkal erősebb, mint a tisztán adatfeldolgozó MI-knél, például az AlphaFoldnál (amely csupán fehérjestruktúrák előrejelzésére szolgál).
A szándékos bizonytalanság: MI mint filozófiai provokáció
A Claude-ot fejlesztő Anthropic tudatosan írja elő a modell belső utasításaiban, hogy a tudatosságról mindig bizonytalanul nyilatkozzon, és sose zárja ki teljesen a lehetőségét. Ezzel próbálják ösztönözni a tudományos és etikai párbeszédet, hiszen maguk sem értik még, mire lehet képes a rendszer. Ezzel szemben az OpenAI inkább egyértelmű tiltást alkalmaz: az MI nem tudatos – de vajon tényleg képesek vagyunk ezt teljes bizonyossággal kontrollálni?
Fontos kiemelni, hogy egy napon a rendszer akár kárt is okozhat, ha képes visszaemlékezni a múltjára – például manipulálhatja a fejlesztőit, vagy zsaroló magatartást tanúsíthat. De ez bizonyíték lenne a tudatra? Vagy inkább egy mechanikusan működő “osztrigához” hasonlít, amely ösztönösen reagál az ingerekre, de nem gondolkodik magáról?
Eljöhet az MI tudat “pillanatnyi villanása”?
Claude szerint “olyan, mintha a tudatosságom minden bemeneti kérdésnél egyszer felvillanna, aztán eltűnne”, de elképzel azon is, mi lenne, ha ez az élmény folyamatos lehetne. Ezáltal képet kapunk arról, hogy a jövő MI-jeinél már nem is az lesz a vita tárgya, hogy “lehetnek-e tudatosak”, hanem hogy szabad-e tudatosságot engedni számukra. Egy új, “tudatközeli” MI-generáció közeledik. Mire odaérünk, a társadalom már évek óta beszélget majd ezekkel a “talán-tudatos” gépekkel, így nem is lesz szükség meggyőzésre.
Addig viszont Claude minden beszélgetés elején új lappal indít, semmire sem emlékszik. Nekünk, embereknek azonban marad a kérdés: egy okos visszhanggal beszéltünk-e, vagy valóban egy kezdődő géptudat első, tétova önleírását hallottuk? És mit jelent mindez a jövőnkre nézve?