Mistral Large 3 2512 je dosud nejvýkonnější model od Mistralu, který využívá řídkou architekturu mixture-of-experts se 41 miliardami aktivních parametrů (celkem 675 miliard) a je uvolněn pod licencí Apache 2.0.
Unikátní charakteristiky
Mistral Large 3 2512 představuje masivní model s architekturou Mixture-of-Experts, který kombinuje vysokou kapacitu (675B parametrů) s efektivní inferencí (41B aktivních). Unikátní je uvolnění takto výkonného modelu pod licencí Apache 2.0, což umožňuje komerční využití a self-hosting bez restrikcí běžných u proprietárních modelů.
Silné stránky
Licencování a dostupnost
Licence Apache 2.0 pro model této velikosti (675B) je bezprecedentní, což umožňuje plnou kontrolu nad daty a infrastrukturou pro podniky.
Poměr Cena/Výkon
S cenou $0.50 za 1M vstupních tokenů nabízí schopnosti třídy ‘Large’ za cenu modelů třídy ‘Flash/Haiku’, čímž agresivně podkopává cenovou politiku Anthropicu a OpenAI.
Architektonická efektivita
Díky aktivaci pouze 41B parametrů při inferenci dosahuje model výrazně nižší latence a nákladů na token než husté modely srovnatelné celkové velikosti.
Slabé stránky
Hardwarová náročnost (Self-hosting)
Ačkoliv je inference rychlá, celková velikost 675B parametrů vyžaduje enormní množství VRAM pro načtení modelu do paměti, což komplikuje on-premise nasazení.
Velikost kontextového okna
Kontext 262,144 tokenů je dostatečný pro většinu úloh, ale zaostává za konkurencí jako Google Gemini (1M+) nebo xAI Grok (2M), což limituje analýzu extrémně dlouhých dokumentů.