Gemma 3n E4B je optimalizována pro efektivní spouštění na mobilních zařízeních a zařízeních s omezenými zdroji, jako jsou telefony, notebooky a tablety. Podporuje multimodální vstupy – včetně textu, vizuálních dat a zvuku – umožňující různorodé úlohy, jako je generování textu, rozpoznávání řeči, překlad a analýza obrazu. Díky využití inovací, jako je Per-Layer Embedding (PLE) caching a architektura MatFormer, Gemma 3n dynamicky spravuje využití paměti a výpočetní zátěž selektivní aktivací parametrů modelu, což výrazně snižuje požadavky na zdroje za běhu.
Tento model podporuje širokou jazykovou škálu (trénován ve více než 140 jazycích) a nabízí flexibilní kontextové okno s 32 tisíci tokeny. Gemma 3n dokáže selektivně načítat parametry, optimalizovat paměť a výpočetní efektivitu na základě úlohy nebo schopností zařízení, díky čemuž je vhodná pro aplikace zaměřené na soukromí, s offline funkcemi a pro AI řešení přímo na zařízení. Více informací v blogovém příspěvku
Unikátní charakteristiky
Gemma 3n 4B využívá architekturu MatFormer a technologii PLE (Per-Layer Embedding) caching, což umožňuje dynamické škálování výpočetní náročnosti podle dostupného hardwaru. Model je navržen primárně pro efektivní běh na koncových zařízeních s podporou nativní multimodality v malém parametrickém balení.
Silné stránky
Cenová dostupnost
S cenou $0.02 za 1M vstupních tokenů jde o jeden z nejlevnějších modelů na trhu, ideální pro vysokoobjemové zpracování dat.
Multimodální schopnosti
Na rozdíl od většiny malých modelů (4B) podporuje nativně vstup textu, audia i vizuálních dat, což zjednodušuje pipeline pro mobilní aplikace.
Jazyková podpora
Trénink na více než 140 jazycích zajišťuje nadprůměrnou lokalizaci pro model této velikosti.
Slabé stránky
Kontextové okno
Limit 32,768 tokenů je na poměry konce roku 2025 podprůměrný (konkurence běžně nabízí 128k+), což omezuje práci s dlouhými dokumenty.
Komplexní reasoning
S pouhými 4 miliardami parametrů nemůže konkurovat větším modelům v hluboké logické dedukci nebo složitém programování.