
A többügynökös rendszerek kihívásai
A több ügynököt alkalmazó MI-rendszerek kulcsa abban rejlik, hogy az egyes ügynökök képesek legyenek olyan összetett feladatokat is megoldani, amelyeket egyetlen MI nem tudna kezelni. Azonban ahogy ezek a rendszerek nőnek és fejlődnek, egyre nehezebb biztosítani, hogy az ügynökök közötti kommunikáció gördülékeny és gyors legyen.
A legtöbb jelenlegi rendszer szövegalapú kommunikációra támaszkodik, így a modellek egymás után generálják a válaszokat, és minden ügynöknek meg kell várnia, amíg az előző elkészül, mielőtt ő maga válaszolhatna. Ez rohamosan növeli a tokenek számát, lelassítva és megdrágítva az egész tanulási folyamatot. Az ügynökök gyakran aprólékosan, tokenről tokenre írják ki a gondolatmenetüket, hogy a következő ügynök olvashassa, ami elképesztően erőforrás-igényes.
Mitől más a RecursiveMAS?
A RecursiveMAS szemlélete radikálisan eltér a megszokottól: nem az éppen soron lévő ügynök fejlesztésére fókuszál, hanem a teljes, több ügynökből álló rendszer fejlődését kezeli egy egységként. A megoldás alapja a rekurzív nyelvi modellek ötlete, ahol a modell többször is visszacsatolja saját kimeneteit a bemenetre, egyre mélyebb gondolkodásra kényszerítve magát anélkül, hogy újabb paramétereket kellene bevezetni.
Ebben a rendszerben minden ügynök gyakorlatilag egy-egy réteget alkot egy rekurzív nyelvi modellen belül, és nem szöveget, hanem folyamatos, beágyazott reprezentációkat ad tovább a következő ügynöknek. Ez a folyamat a rendszer összes MI-ügynökén átível, majd a legvégső ügynök eredménye visszacsatolódik az elsőhöz, amely újabb kört indít a rendszerben. Végül csak az utolsó ügynök generál szöveges választ – addig minden belső gondolatmenet rejtve marad a beágyazási térben.
A RecursiveLink – a rejtett együttműködés motorja
A rendszer működéséhez alapvető fontosságú egy új architekturális elem, a RecursiveLink, amely lehetővé teszi, hogy a modellek ne szövegesen, hanem folyamatos beágyazási állapotokon keresztül kommunikáljanak. A RecursiveLink egy könnyű, kétrétegű modul, amely megőrzi és továbbítja a modellek utolsó rétegének, jelentéssel bíró, összetett rejtett állapotát.
A modellek többi paramétere fagyasztva marad, így elkerülhető a hatalmas számítási igény; csak a RecursiveLink modul kicsi paraméterhalmazát tanítják, akárcsak az alacsony rangú adaptáció (LoRA) módszernél. Az ügynökök belső gondolatainak körön belüli átadása mellett a RecursiveLink további variációja gondoskodik a különböző modellarchitektúrák és méretek közötti kompatibilitásról is, például amikor Qwen vagy Llama‑3 modellek működnek együtt egy rendszerben.
Ha ugyanazon alapmodellen több ügynök működik, elég egyetlen példányt betölteni a GPU-memóriába – az ügynökök ugyanazt az alapmodellt használják, a RecursiveLink köti össze őket.
Impresszív eredmények a gyakorlatban
A RecursiveMAS teljesítményét matematikai, természettudományos és orvosi problémák, programkód‑generálás, illetve keresésalapú feladatok összesen kilenc tesztsorozatán vizsgálták. Nyílt súlyú modelleket – Qwen, Llama‑3, Gemma 3, Mistral – alkalmaztak, amelyek különböző együttműködési mintákat alkottak: szekvenciális gondolkodás vagy szakértők keveréke (mixture of experts) megközelítés.
A RecursiveMAS a legerősebb kiindulási rendszerekkel összehasonlítva átlagosan 8,3%-kal javította a találati arányt, különösen a nehéz, több lépéses gondolkodást igénylő feladatokban teljesített jobban: például az AIME2025-ben 18,1%-kal, az AIME2026-ban 13%-kal volt jobb, mint a legtöbb versenytárs.
Mivel szinte minden belső kommunikáció rejtett térben zajlik a körök között, a rendszer 1,2–2,4-szeres gyorsulást ér el, miközben a tokenhasználat is látványosan visszaesik: az első körben 34,6%-os, a harmadik körre már 75,6%-os megtakarítás. A RecursiveMAS feleannyi GPU‑memóriát igényel, és az eddigi teljes tanítási költséget jelentősen megfelezi – mindezt csupán 13 millió paraméterrel, ami az összes paraméternek csupán 0,31%-a.
Az MI-ügynökök jövője már kopogtat
Ez a hatékonyságbeli ugrás – kevesebb token, kisebb memóriaszükséglet, gyorsabb működés – végre lehetővé teszi, hogy a vállalati, ipari MI‑megoldások költséges kompromisszumok nélkül is széles körben bevezethetők legyenek. A fejlesztők minden részletet és a modell súlyait is elérhetővé tették, Apache‑2.0‑licenc alatt, hogy a szakma egésze profitálhasson az új, rejtett térben gondolkodó MI‑ügynökrendszerekből.
