Az új MI-óriás: a Chimera R1T2 gyorsabb, okosabb és ingyenes

Az új MI-óriás: a Chimera R1T2 gyorsabb, okosabb és ingyenes
A kínai DeepSeek MI-cég alig több mint egy hónapja adta ki az R1 modellt, amely ingyenesen elérhetővé tette az intelligens nagy nyelvi modelleket (LLM) fejlesztők és vállalatok számára. A modellt gyorsan átvették és továbbfejlesztették világszerte. Egy ilyen friss adaptációt idén mutatott be a német TNG Technology Consulting: ez a Chimera R1T2, amely a DeepSeek-R1-0528-ból készült, de annál sokkal gyorsabb és hatékonyabb, miközben az intelligenciáját is megtartotta.

Villámgyors és takarékos: mit tud a Chimera R1T2?

A Chimera R1T2 igazán nagy dobás: képes elérni a DeepSeek-R1-0528 intelligenciájának akár 90%-át a mérvadó MI benchmark teszteken, miközben válaszai mindössze 40%-át teszik ki az eredeti modell válaszainak terjedelemben (tokenben). Ez azt jelenti, hogy a válaszok rövidebbek, a feldolgozási idő gyorsabb, a számítási költségek pedig jelentősen csökkentek.

A TNG szerint az R1T2 átlagosan 20%-kal gyorsabb, mint az eredeti R1-es januári kiadása, és több mint kétszer olyan gyors, mint a májusban megjelent R1-0528. Az MI-fejlesztői közösség máris ünnepli az új modellt, amelyet MIT-licenc alatt bárki szabadon letölthet, használhat és beépíthet alkalmazásaiba.

Az új MI-építési trükk: Assembly-of-Experts (AoE)

A Chimera R1T2 sikerének kulcsa az Assembly-of-Experts (AoE) módszer. Ez nem egy új MI-architektúra, hanem egy technika: meglévő, kiképzett modellek legjobb „szakértői” súlyait válogatják össze, így egyesítve az egyes modellek erősségeit.

Szemben a Mixture-of-Experts (MoE) eljárással, ahol az egyes „szakértői” rétegek dinamikusan aktiválódnak a bemenettől függően, az AoE módszerrel ténylegesen fizikailag összeolvasztják a súlyokat a modellekből. A Chimera R1T2 három „szülő” modell – a DeepSeek-R1-0528, a DeepSeek-R1 és a DeepSeek-V3-0324 – ötvözésével jött létre, mindhárom előnyös tulajdonságát örökölve.

A végeredmény: ezt a modellt nem kellett újra tanítani vagy finomhangolni — magában hordozza az R1-0528 okos, részletes gondolkodását, az R1 rendezett logikáját és a V3-0324 tömör, utasítás-központú válaszkészségét. Ideális nagyvállalati vagy kutatási felhasználásra.

Mitévők a sebesség és intelligencia harcában?

Az új Chimera R1T2 az intenzív valószínűségi gondolkodásra kihegyezett AIME-24, AIME-25 és GPQA-Diamond méréseken átlagosan 90–92%-át tudja a legokosabb szülőmodellnek (DeepSeek-R1-0528). Míg azonban az R1-0528 gyakran túl hosszú válaszokat ad, az R1T2 tömören, mégis intelligensen és informatívan fogalmaz.

A TNG mérési módszertana a válasz hosszát (output tokenek száma) helyezi középpontba, ami gyakorlatias mutatója a költségnek és a válaszidőnek. Az R1T2 nagyjából 60%-kal rövidebb válaszokat ad, így a kiszolgálás (inferencia) ideje akár 200%-kal is gyorsabb lehet, vagyis kétszer gyorsabban teljesít, mint az R1-0528. Az eredeti DeepSeek-R1-hez képest is átlagosan ötödével takarékosabb.

Az okosság és rövidség egyensúlya különösen fontos ott, ahol a költség és a gyors reakció számít: vállalati chatbotok, programozást támogató MI-alkalmazások vagy tömeges dokumentumfeldolgozás esetén.


Felhasználás, jogi tudnivalók és elérhetőség

A Chimera R1T2 nyílt forráskódú MIT-licenc alatt érhető el a Hugging Face platformon. Így szabadon beépíthető vállalati alkalmazásokba — saját szerveren, privát környezetben, vagy akár továbbfejleszthető, testre szabható speciális igényekhez.

Fontos tudni, hogy bár általános célú, logikai feladatokat és tudásalapú kérdéseket jól kezel, a modell jelenleg nem támogatja a funkcióhívásokat vagy eszközhasználatot — ezek a DeepSeek-R1 örökségéből adódó korlátozások, melyeket a jövőbeli verziókban javíthatnak.

Az európai felhasználóknak figyelniük kell az EU AI Act jogszabályra, amely 2025. augusztus 2-án lép életbe. Ha a modell nem felel meg az előírásoknak, az alkalmazás használatát abba kell hagyni, vagy gondoskodni kell a megfelelésről. Az amerikai vállalatokat ez nem érinti, kivéve, ha EU-s felhasználókat is kiszolgálnak.

A TNG egyébként már korábban is publikált Chimera-változatokat az OpenRouter és Chutes platformokon, ahol napi milliárd tokennyi feldolgozást végeztek; az R1T2 kiadása ennek a nyilvános hozzáférési stratégiának folytatása.

Kik azok a TNG, és miért számítanak?

A 2001-ben alapított bajorországi TNG Technology Consulting GmbH közel 900 fős csapattal dolgozik, jelentős tapasztalattal szoftverfejlesztés, MI és felhőszolgáltatások terén. Ügyfelei között nagy távközlési, biztosítási, autóipari, e-kereskedelmi és logisztikai cégek is megtalálhatók.

A vállalat közösségi elven, önmenedzselő partnerségként működik, ami az innovatív, kutatás-központú kultúrát erősíti. Aktív tagja a nyílt forráskódú közösségeknek, hozzájárulásaival – így a Chimera modellekkel és a publikált AoE módszerrel – tovább növelve a MI-fejlesztés lendületét.

Miért jó ez a vállalatoknak?

A CTO-knak, mérnökvezetőknek és IT-beszerzőknek a Chimera R1T2 kézzelfogható előnyöket jelent:

– Alacsonyabb MI-működtetési költség, hiszen a rövidebb válaszok kevesebb GPU-időt és energiát igényelnek;
– Kiemelkedő okosság, minimális mellébeszélés – ideális matematikai, logikai, programozói feladatokhoz;
– Teljesen testreszabható, saját infrastruktúrán futtatható modell;
– Moduláris MI-jövő: a modell-összeolvasztás lehetővé teszi, hogy a vállalatok gyorsan alkossanak egyedi MI-t többszöri újratanítás nélkül.

Ugyanakkor, ha funkcióhívásra vagy komplex ügynökmegoldásokra van szükség, egyelőre még korlátba ütközhetsz – de a trend azt mutatja, hogy a fejlesztők gyors tempóban dolgoznak ezeken is.

A Chimera R1T2 tehát minden fejlesztő, kutató és vállalati felhasználó számára nyitott: letölthető, tesztelhető, visszajelzés küldhető, és garantáltan olcsóbban, gyorsabban gondolkodik, mint a legtöbb nagy MI – ráadásul teljesen ingyenes is.

2025, adminboss, venturebeat.com alapján

  • Mit gondolsz arról, ha egy MI-t összeraknak már létező modellek részeiből?
  • Szerinted etikus lenne függővé tenni egy cég szoftverhasználatát attól, hogy megfelel-e az EU törvényeinek?
  • Te a gyorsaságot vagy az alaposságot tartanád fontosabbnak egy vállalati MI-ben?




Legfrissebb posztok