Mistral Small 3 je jazykový model s 24 miliardami parametrů optimalizovaný pro nízkou latenci při běžných úlohách umělé inteligence. Je vydán pod licencí Apache 2.0 a nabízí předtrénované i instrukčně doladěné verze navržené pro efektivní lokální nasazení.
Model dosahuje 81% přesnosti v benchmarku MMLU a výkonnostně konkuruje větším modelům, jako jsou Llama 3.3 70B a Qwen 32B, přičemž na ekvivalentním hardwaru pracuje třikrát rychleji. Přečtěte si blogový příspěvek o modelu zde.
Unikátní charakteristiky
Mistral Small 3 je optimalizován pro nízkou latenci a dosahuje konkurenceschopných výsledků s většími modely, jako je Llama 3 70B, ale s trojnásobnou rychlostí na stejném hardwaru. Dosahuje 81% přesnosti na benchmarku MMLU.
Silné stránky
Rychlost
Vysoká rychlost zpracování s 116.2 tokeny za sekundu a nízkou latencí 0.294s.
Cena
Relativně nízká cena ve srovnání s jinými modely s podobnými schopnostmi.
Slabé stránky
Věda a matematika
Slabé výsledky v oblasti vědy a matematiky (29.0/100).
Programování
Slabé výsledky v programování (14.1/100).