Llama 4 Maverick 17B Instruct (128E) je velkokapacitní multimodální jazykový model od společnosti Meta, postavený na architektuře mixture-of-experts (MoE) se 128 experty a 17 miliardami aktivních parametrů na jeden průchod dopřednou sítí (celkem 400B). Podporuje multijazyčný textový a obrazový vstup a produkuje multijazyčný textový a kódový výstup ve 12 podporovaných jazycích. Maverick, optimalizovaný pro úlohy vidění a jazyka, je doladěn pomocí instrukcí pro chování podobné asistentovi, obrazové usuzování a všeobecnou multimodální interakci.
Maverick využívá ranou fúzi pro nativní multimodalitu a kontextové okno o velikosti 1 milionu tokenů. Byl trénován na kurátorské směsi veřejných, licencovaných a Meta-platform dat, pokrývající ~22 bilionů tokenů, s datovým cut-off v srpnu 2024. Maverick, vydaný 5. dubna 2025 pod licencí Llama 4 Community License, je vhodný pro výzkumné a komerční aplikace vyžadující pokročilé multimodální porozumění a vysokou propustnost modelu.
Unikátní charakteristiky
Llama 4 Maverick je multimodální model s velkým kontextovým oknem (1 milion tokenů) a architekturou MoE. Vyniká ve vědeckých úlohách (GPQA Diamond 67.1%, MATH-500 88.9%), ale má slabší výsledky v logice a programování.
Silné stránky
Věda a matematika
Vynikající výsledky ve vědeckých a matematických benchmarkách, jako je GPQA Diamond (67.1%) a MATH-500 (88.9%).
Kontextové okno
Velké kontextové okno (1,048,576 tokenů) umožňuje zpracovávat rozsáhlé dokumenty a složité konverzace.
Slabé stránky
Programování
Slabší výsledky v programovacích benchmarkách (LiveCodeBench 39.7%).
Logické uvažování
Velmi nízké skóre v benchmarku HLE (4.8%) naznačuje problémy s hard logic.