
Több mint 140 nyelv és multimodális képességek
A Google DeepMind csapata által fejlesztett Gemma 4 több összetevőjében megújult. A modell mostantól több mint 140 nyelvet támogat, fejlettebb matematikai és utasításkövető képességekkel bír, és képes natív függvényhívásokat, valamint videó- és hangbemeneteket kezelni. A modelleket különböző méretben kínálják, hogy akár egy Raspberry Pi-szintű számítógép, akár egy vállalati adatközpont igényeit is kiszolgálják.
Változatos méretek és teljesítmény
A Gemma 4 zászlóshajója egy 31 milliárd paraméteres nyelvi modell, amelyet kifejezetten a minőségi kimenetekre hangoltak. Méretének köszönhetően nem lesz konkurenciája a Google saját, zárt modelljeinek, de olyan hatékony, hogy már egyetlen 80 GB-os H100 GPU-n is futtatható 16 bites pontossággal, vagy akár 24 GB-os RTX 4090 vagy RX 7900 XTX kártyán 4 bitesen, például Llama.cpp vagy Ollama keretrendszerekkel.
Emellett a kínálat része egy 26 milliárd paraméteres változat is, amely a szakértői keverék (MoE) architektúrára támaszkodik. Ennél csak a modell 128 szakértőjének halmazrészét, összesen 3,8 milliárd paramétert aktivál egy-egy token előállításakor, így jelentősen gyorsabb válaszidejű, még ha ez némi minőségromlással is jár – főleg lassabb memóriával rendelkező eszközökön, például notebookokon.
Okostelefonok és elterjedt keretrendszerek támogatása
A Gemma 4 alacsony fogyasztású eszközökre optimalizált változatai már egészen kis gépeken, például egy 4–8 milliárd paraméteres modellel Raspberry Pi-n vagy okostelefonon is futhatnak. Ezek tényleges számítási igénye a rétegenkénti beágyazások miatt akár 2,3–4,5 milliárd paraméterre csökken, így kevésbé terhelik az akkut és a hardvert.
Mindkét kisebb modell multimodális (kép- és hangbemenet is), és 128 ezer tokenes kontextusablakkal dolgozik. Emellett a Google beszámolója szerint jelentősen javultak az MI-benchmarkokon elért eredmények a harmadik generációhoz képest.
Szabadabb felhasználás és széles körű elérhetőség
A legjelentősebb újdonság a felhasználási feltételekben érhető tetten: mostantól az engedékenyebb Apache 2.0 licenc szavatolja, hogy a vállalatok korlátozás nélkül telepíthetik vagy integrálhatják a modelleket, anélkül, hogy attól kellene félniük, hogy a Google egyszer csak visszavonja a hozzáférést. A Gemma 4 már elérhető a Google AI Studio, AI Edge Gallery és több népszerű MI-modell-tároló oldalán, mint a Hugging Face, a Kaggle vagy az Ollama. Érkezéskor több mint egy tucat inferencia-keretrendszer (pl. vLLM, SGLang, Llama.cpp, MLX) támogatja.
