Garry Kaszparov és az MI-sakk forradalma
Kaszparov emlékei szerint 1985-ben még könnyedén legyőzött egyszerre 32 sakkgépet. Tizenkét évvel később, 1997-ben már az IBM Deep Blue szuperszámítógépével kellett megküzdenie New Yorkban, egy világraszóló csatában, egy hárommilliárd forint értékű gép ellen. Akkoriban sokan a Wright fivérek első repüléséhez vagy a holdra szálláshoz hasonlították a gép győzelmét, jelezve: az ember-gép viszony mindig is ellentmondásos volt, félelemmel és csodálattal vegyes.
A kérdés azonban ma már nem az, hogy az MI le tud-e győzni egy embert sakkban, hanem az, hogy megközelíti vagy meghaladja-e az emberi képességeket, és mit kezd majd ezzel a hatalommal az emberiség.
Az MI: Brute force vagy valódi értelem?
Fontos megjegyezni, hogy az MI-k ma is nagyrészt nyers számítási teljesítményre, úgynevezett brute force módszerekre támaszkodnak. Az olyan LLM-ek, mint például a ChatGPT, nem előre terveznek, hanem hatalmas adathalmazokon dolgoznak: minél több szöveget, képet, videót dolgoznak fel, annál pontosabb „mintákat” képesek követni.
Ennek ellenére ezek a rendszerek gyakran alapvető hibákat vétenek. Például ha nagy nyelvi modellekkel játszunk sakkot, könnyen előfordulhat, hogy olyan lépést hajtanak végre egy bábúval, amely ellentmond a szabályoknak – olyat, amit még egy ötéves gyerek sem csinálna. A gép „tudja” ugyan a szabályokat, el is tudja sorolni, de nem képes alkalmazni őket: nincs valódi belső modellje a sakkról, csupán statisztikai mintákra támaszkodik.
Az „értelem” illúziója
Az LLM-ek és hasonló MI-k nem rendelkeznek mély fogalmi megértéssel – sem a sakkról, sem más rendszerekről. Ez az egyik legfontosabb félreértés az MI-vel kapcsolatban: sokan nagyobb tudatosságot és „értelmet” tulajdonítanak nekik, mint amivel ténylegesen bírnak. Ez komoly veszély, hiszen a laikus könnyen azt hiheti, hogy a gép valóban „gondolkodik”, miközben valójában csak mintákat követ, nem ért.
Kaszparov szerint helyesebb MI-szkeptikus helyett MI-realista kifejezést használni: az MI nem varázspálca, de nem is pusztító fegyver. Lehetőségei és veszélyei kizárólag tőlünk, emberektől függnek.
Kettős felhasználás: jót vagy rosszat tehet?
A mesterséges intelligencia kettős felhasználású eszköz; éppúgy, mint az atomenergia vagy az internet, használható jóra és rosszra is. Az igazi fenyegetés nem magából a technológiából ered, hanem abból, hogy rossz szándékú emberek hogyan használják fel. Mindezt figyelembe véve a legfőbb kockázatot az MI véletlenszerű vagy gonosz célú, embereknek ártó alkalmazása jelenti – nem pedig a sci-fi filmekből ismert, önállóan gonosszá váló gép (mint például a Terminátorban – The Terminator).
A tanulás határai – miért nem jutunk el így a szuperintelligenciához?
A ma alignment problémának nevezett kihívást sem sikerült még megoldani: az MI-k valójában nem tudják biztosítani, hogy azt tegyék, amit mi szeretnénk. Kaszparov példája szerint hiába tanulják be a szabályokat, nem tudnak dinamikusan, a kontextushoz igazodva jól működni, a komplexebb erkölcsi és emberi értékekhez pedig végképp kevesek. Több adat még nem vezet minőségi ugráshoz – attól, hogy „etetik a szörnyet”, a gyenge pontok nem tűnnek el.
Jelenleg nagyon messze vagyunk bármilyen szuperintelligenciától. Marcus és Kaszparov szerint is egyelőre főként hiedelmek és túlzások uralják a terepet, miközben a valódi intellektuális őszinteséget gyakran felváltja a szenzációhajhászás.
Az MI valódi lehetőségei – nemcsak chatbotok
Mindezek ellenére az MI-nek valóban vannak előnyei – különösen, ha célszerű, szűk feladatokra fejlesztik őket. Az AlphaFold forradalmasította a biológiai kutatást: a fehérjeszerkezetek előrejelzése révén jelentősen hozzájárulhat az orvostudományhoz. Ugyanakkor a nagy MI-cégek többsége főként LLM-ek fejlesztésére költi pénzét, miközben a valóban tudományos, emberiséget segítő MI-k csak marginális szerepet kapnak.
Fontos megjegyezni, hogy nem elegendő pusztán a technológiai fejlesztés: jogi és társadalmi keretek is szükségesek ahhoz, hogy az MI valóban közösségi hasznot hozzon, ne pedig károkat. Jelenleg az Egyesült Államokban szinte nincs valódi szabályozás, ezért a negatív következmények esélye tovább nő.
Demokrácia vs. techno-fasizmus – az emberi felelősség
Az MI megjelenése óriási esélyt kínál, de egyben a demokratikus rendszerek sebezhetőségét is fokozza, ha rossz kezekbe kerül. A felelősség tehát kizárólag a miénk marad abban, hogyan és mire használjuk ezt a technológiát. Mindezt figyelembe véve az MI legfontosabb tanulsága: nincs kibúvó a tudatos, felelős emberi döntések alól. Az MI egy eszköz, a jövőnk pedig azon múlik, hogyan bánunk vele.