LFM2.5-1.2B-Instruct je kompaktní, vysoce výkonný model vyladěný pro instrukce, vytvořený pro rychlou AI přímo na zařízení. Poskytuje vysokou kvalitu chatu v 1,2B parametrové stopě, s efektivní inferencí na okraji sítě a širokou podporou běhových prostředí.
Unikátní charakteristiky
Tento model se vyznačuje extrémně kompaktní velikostí 1.2B parametrů a architekturou navrženou pro efektivní běh na koncových zařízeních (edge). Na rozdíl od tradičních masivních transformerů se zaměřuje na maximalizaci výkonu při minimální spotřebě paměti a výpočetních zdrojů.
Silné stránky
Provozní efektivita
Díky velikosti 1.2B je model schopen běžet lokálně na mobilních zařízeních a laptopech s minimální latencí, což je kritické pro real-time aplikace.
Nákladová politika
S cenou $0.00 za vstup i výstup je bezkonkurenční pro vysokoobjemové, jednoduché úlohy, kde by placené API bylo neekonomické.
Slabé stránky
Omezená kapacita uvažování
Malý počet parametrů (1.2B) fyzikálně omezuje schopnost modelu řešit komplexní logické úlohy a hluboké uvažování ve srovnání s většími modely.
Kontextové okno
Limit 32,768 tokenů je v kontextu konkurence (nabízející 200k až 2M tokenů) značně omezující pro analýzu delších dokumentů.