
Kevesebb paraméter, nagyobb hatékonyság
Az új modell mindössze 27 millió paraméterrel és 1000 tanulómintával dolgozik, miközben a legnépszerűbb MI-modellek – például a frissen megjelent GPT-5 (GPT-5) – 3000 milliárd–5000 milliárd paraméterrel számolnak. Mindez radikálisan kevesebb adatot és számítási kapacitást igényel, mégis hihetetlenül magas teljesítményt nyújt.
Mindenkit meglepett a teszteredmény
Az ARC-AGI (ARC-AGI) nevű szigorú próbatételen – amely az általános mesterséges intelligencia (AGI, Artificial General Intelligence) elérésének közelségét méri – az új HRM 40,3%-ot ért el, az OpenAI o3-mini-high modellje 34,5%-ot, az Anthropic Claude 3.7 modellje 21,2%-ot, a Deepseek R1 csupán 15,8%-ot. A még nehezebb ARC-AGI-2 (ARC-AGI-2) teszten a HRM 5%-ot ért el, az o3-mini-high 3%-ot, a Deepseek R1 1,3%-ot, a Claude 3.7 pedig mindössze 0,9%-kal kullogott mögötte.
Új módszertan, agyi inspiráció
A hagyományos CoT (láncolt gondolatmenet, Chain of Thought) helyett a HRM egyszerre, egy menetben oldja meg a feladatokat. Egy magasabb szintű modul felel a lassú, absztrakt tervezésért, egy alacsonyabb pedig a gyors, részletes számításokért – akárcsak az emberi agy különböző részei.
A HRM képes iteratív finomításra: lépésről lépésre pontosítja a megoldását, és minden „gondolkodási robbanásnál” eldönti, hogy megálljon-e vagy továbblépjen. Még bonyolult Sudoku-feladványokat vagy optimális útvonaltervezést is tökéletesen megoldott, amire a hagyományos LLM-ek nem voltak képesek.
Bár a cikk szerzői eredményei izgalmasak, a független kipróbálás során kiderült: a lenyűgöző teljesítmény mögött inkább a speciális, kevéssé dokumentált finomhangolási folyamat áll, nem csupán a hierarchikus felépítés.