
A szimbolikus MI és a neurális hálózatok: barát vagy ellenség?
A szimbolikus MI, vagy más néven “jó öreg mesterséges intelligencia”, olyan formális szabályokra és kapcsolatokra épül, amelyek világosan leírhatók – gondolj csak a matematikai logikára, “ha-akkor” utasításokra vagy akár Venn-diagramokra. Régebben ezek vezették a gépi gondolkodás kutatását, ám az elmúlt 10–15 év a neurális hálózatok diadalmenetét hozta el: ezek a modellek hatalmas mennyiségű adatból tanulnak, és vezérlik az MI legnépszerűbb alkalmazásait.
Nem hagyható figyelmen kívül, hogy a számítástechnikai közösség újra felfedezte a két irányzat összeházasításának szükségességét: egyesek szerint a “neurószimbolikus” MI a megoldás kulcsa, amely lehetővé tenné a gépek számára a valódi következtetést, logikai általánosítást és megbízható döntéshozatalt. Sőt, felelősségteljesen alkalmazható lenne akár az egészségügyben, akár önvezető autókban, mivel a szimbolikus rendszerek átláthatók, és könnyebb belátni, épp miben hibáznak.
Átmenet, vita, kísérletezés
Jelentős vita zajlik a szakmában arról, hogy valóban szükség van-e a szimbolikus elemekre. Sokan felidézik, hogy a pusztán szabálykövető szoftverekre hogyan vertek rá azok a sakkprogramok és MI-rendszerek, amelyek egyszerűen rengeteg adatot és nyers számítási teljesítményt használtak ki. Mégis, a mai legjobb sakkszoftver, a Stockfish már ötvözi a neurális hálót egy szimbolikus lépésfával.
A neurális hálók hihetetlenül gyorsak és tanulékonyak, de csakis abban jók, amire betanították őket – gyakran követnek el banális hibákat, például hatujjú kezeket generálnak, vagy nem értik a gravitáció alapvető törvényeit egy videós szimulációban. A szimbolikus rendszerek viszont lassúak, nehéz őket felépíteni, de a logika mesterei.
A véleménykülönbség nagy: vannak, akik szerint a két irányzat egyesítése nélkül elképzelhetetlen az MI igazi logikus gondolkodása; mások úgy vélik, hogy jobban tesszük, ha azt alkalmazzuk, ami működik – és nem ragadunk le filozófiai kérdéseken.
Neurószimbolikus MI a gyakorlatban
Sokféle megközelítés létezik. Az egyik: szimbolikus modellekkel edzik a neurális hálózatokat. A Google DeepMind fejlesztése, az AlphaGeometry például szintetikus matematikai feladatokon tanít neurális hálót, amely aztán bravúrosan old meg érettségi szintű feladványokat. Más módszereknél szimbolikus logikát, például „fuzzy” igazságértékeket adnak át a modelleknek.
A fordított irány szintén működhet: a neurális hálók segítenek leszűkíteni a hatalmas, szimbolikus tudásbázisokból a valóban esélyes lehetőségeket. Az AlphaGo-nál is így történt: a Go ugyanis csillagászati mennyiségű lehetséges lépést tartalmaz, de a neurális hálózat előre tudta jelezni, merre érdemes keresgélni, így gyorsította a döntéshozatalt.
Vannak olyan fejlesztések, amelyek a két szemlélet között, a logikus érvelési pontokon illesztik be a szabályalapú döntéseket, például egy nyelvi modell (LLM) működésébe. Egy LLM például feladatokat programkódra fordít, amelyeket szimbolikus kódolvasók dolgoznak fel, majd visszaadják az eredményt természetes nyelven.
A robotikában pedig lenyűgöző eredményeket produkál a kombináció: például egy objektumfelismerő neurális háló, amelyet szimbolikus szabályrendszer egészít ki – így jóval kevesebb példával is el lehet jutni szinte tökéletes pontosságig.
A józan ész feltérképezése: a szimbolikus rendszerek kihívásai
Az egyik kihívás, hogyan lehet a mindennapi emberi tudást, a józan észt formális szabályokká, szimbólumokká fordítani. Már az 1980-as években indultak ilyen próbálkozások, például a Cyc-projekt: ebben mára több mint 25 millió szabály van, sőt, inspirálta a Google Knowledge Graph-ot is, amely már 500 milliárd tényt tartalmaz.
A módszer nagy előnye, hogy az MI képes absztrahálni, más helyzetekben is alkalmazható tudást szerezni. Hátránya viszont, hogy sok területen épp a szabályok alól van rengeteg kivétel – például nem minden ember szereti a gyermekét, vagy nem mindig mosolyogunk, ha egy szeretett személyt látunk.
A felhasznált szabályokat okosan kell integrálni, és nem szabad megfeledkezni arról, hogy a mindennapi tapasztalat ritkán írható le maradéktalanul logikával.
Merre tovább? Az MI önreflexiója és a következő lépés
Ilyen eset például, amikor a GPT-3-at megpróbálták szimbolikus következtetésekre tanítani: első ránézésre ígéretesnek tűnt, de közelebbről vizsgálva súlyos logikai hibák derültek ki. A kutatók szerint egyelőre nincs értelme egyszerűen hozzákapcsolni egy szimbolikus motort egy neurális hálóhoz – valódi integrációra és belső felismerésekre van szükség.
Ha sikerülne egy olyan “dirigens” rendszert alkotni, amely hatékonyan irányítja mindkét paradigmát, az lehetne az általános MI (AGI) alapja. Új típusú hardverekre is szükség lehet, hogy ezek a modellek hatékonyan fussanak.
Nem hagyható figyelmen kívül, hogy a végső cél: gépek, amelyek már az emberi tudás szintje fölé emelkednek, önállóan alkotnak szabályokat, sőt, matematikai és fizikai koncepciókat fedeznek fel – majd tanítanak ezekre minket, embereket. Az MI jövője tehát többet ígér annál, mint hogy mi tanítjuk a gépeket – elképzelhető, hogy hamarosan ők fognak minket okosítani.
