Modellek és képességek
A Sarvam 30B és 105B a kategóriájukon belül is kimagasló teljesítményt nyújtanak. Előbbi főként valós idejű beszélgetős alkalmazásokra optimalizált, például a Samvaad platformon fut, míg utóbbi a komplex okfejtést és ügynökszerű (agentic) feladatokat igénylő környezetekhez, mint például az Indus MI-asszisztens. Mindkét modell az indiai nyelveket tekintve látványosan felülmúlja még a jóval nagyobb méretű vetélytársakat is.
A Sarvam modellek fejlesztése igazi, teljes skálájú MI-fejlesztést jelent. Az adathalmaz gyűjtésében, tokenizálásában, modellarchitektúrában, üzemeltetésben, hardveroptimalizációkban mindent saját maguk fejlesztettek, így a skálázhatóság és a továbbfejlesztés alapja is adott.
Architektúra: hatékony intelligencia
Mindkét modell a Mixture-of-Experts (MoE) transzformer alapjaira épül, ahol a szakértői útvonalak révén a paraméterszám növelhető, miközben az egy tokenhez tartozó számítási igény nem nő arányosan, így az üzemeltetés költsége ésszerű marad. Ez teszi lehetővé, hogy a Sarvam 30B-t akár laptopon, a 105B-t pedig nagyvállalati szervereken is futtatni lehessen. Az architektúra része még a hosszú szövegkörnyezet támogatása, Rotary Positional Embeddings, RMSNorm és gyorstárazott figyelem (KV-cache-optimalizáció).
A Sarvam 30B Grouped Query Attention-t alkalmaz, hogy kevesebb memóriát igényeljen, a 105B pedig még mélyebb, Multi-head Latent Attention mechanizmust, amely főleg a hosszabb szövegek feldolgozásánál jelent előnyt.
Saját fejlesztésű tanítás és adat
A modellek teljes tanítási folyamata házon belül zajlott. Az előtanításhoz 16 billió tokennyi adatot (30B) és 12 billió tokent (105B) használtak, amelyben kód, internetes szövegek, szakmai tartalom, matematika és többnyelvű anyag is szerepelt. Kiemelten odafigyeltek a gondolkodási képességek, a tényszerű válaszok és a szoftveres tudás erősítésére. A tíz leggyakrabban használt indiai nyelvre kiemelt hangsúlyt helyeztek.
A felügyelet melletti finomhangolás során a promptokat mesterségesen is generálták, hogy leküzdjék a publikus adatokra jellemző gyenge minőséget. A biztonság érdekében külön, indiai sajátosságokra kidolgozott figyelmeztető és támadási szcenáriókat is bevontak, és alaposan tesztelték a modellt szélsőséges helyzetekben is.
A megerősítéses tanítás során a modellt összetett, a matematika, programozás, web- és eszközhasználat területére tartozó kérdésekkel faggatják, ahol a helyes válaszokat többféle módon ellenőrzik és értékelik, hogy az MI valóban fejlődjön minden fontos aspektusban.
Benchmarkok: a teszteredmények
A Sarvam 105B a tudás, matematika, programozás és utasításkövetés terén a legjobb nyílt és zárt modellekkel is felveszi a versenyt. Különösen az indiai nyelveken jelent versenyelőnyt: 98,6 pontot ért el a Math500 teszten, 71,7-et a LiveCodeBench-en, 90,6-ot az MMLU-n, és 84,8-at az IF-Evalon. Az AIME 25 összetett gondolkodást igénylő feladatain is kiemelkedő, 88,3-as arányt teljesített eszközhasználat nélkül, 96,7-et eszközhasználattal. Ügynökszerű képességekben, például hosszú távú tervezésben, információ-visszakeresésben és koherens, többlépéses gondolkodásban kiemelkedően teljesít.
A Sarvam 30B mindeközben a hatékonyság bajnoka: 2,4 milliárd aktív paraméterrel gond nélkül hozza vagy felülmúlja a nagyobb modelleket matematikában (97,0 Math500), programozásban (92,1 HumanEval, 92,7 MBPP), tudásban (85,1 MMLU). Képes mélyebb logikai és matematikai láncolatok követésére is. Ezekkel az eredményekkel megcáfolja azt a gyakorlatot, hogy hatékony modellel ne lehetne első osztályú képességeket elérni.
Indiai nyelvi teljesítmény
A fejlesztők saját benchmarkot is készítettek a 22 hivatalos indiai nyelven – ráadásul mind natív írással, mind latin betűs átirattal, hogy a chat- és online kommunikációban is jól használható MI szülessen. Az értékelés négy dimenzióban történt: folyékonyság, helyes nyelvhasználat, hasznosság, terjengősség. Az értékelések során a Sarvam 105B átlagosan 90%-os sikerarányt ért el, STEM-tárgyakban és kódolásban is 84% fölött. A kisebb, 30B-s modell sem marad el: 89%-os általános siker, STEM-területen 87%.
Tokenizációs és futtatási optimalizációk
Az indiai nyelvekre kihegyezett Sarvam-tokenizáló 12 írásrendszert támogat, és jelentősen csökkenti a feldolgozáshoz szükséges tokenek számát – főleg olyan ritka nyelveknél, mint például az odia vagy a szantáli. Ez mérhető előnyt jelent mind a kiszolgálási költségben, mind a válaszidőben.
A futtatási optimalizációknak hála a Sarvam 30B akár fejlesztői laptopokon is jól fut: Apple Siliconon mérhetően 20–40%-kal gyorsabb a natív MI-inferencia, szerveres környezetben (H100) 3–6-szoros gyorsulás figyelhető meg a Qwen3-hoz képest. Középkategóriás GPU-kkal (L40S) is könnyen futtatható, hosszabb szövegeknél 1,5–3-szoros gyorsulással.
A Sarvam MI alkalmazásai
A demók széles körben mutatják be a Sarvam erejét: önállóan képes teljes weboldalakat, landing page-eket generálni, álláslistákat összeállítani, vagy akár összetett STEM-feladatokat, például JEE Main 2026 vizsgakérdéseket megoldani. A modellek könnyen integrálhatók fejlesztői platformokba, weboldalakba, ügyfélszolgálatba, vagy akár egyedi oktatási alkalmazásokba.
Ezenfelül a modellek nyílt forráskódúak lettek: az API, a súlyok és az implementációk minden fejlesztő számára elérhetők a közösségi platformokon és a Hugging Face-en, így az indiai MI új korszakát indíthatják el, ahol a hatékonyság, a gondolkodás és a valós felhasználhatóság egyszerre adott, kompromisszumok nélkül.
