LFM2.5-1.2B-Thinking je odlehčený model zaměřený na usuzování, optimalizovaný pro agentní úlohy, extrakci dat a RAG – přičemž stále pohodlně běží na okrajových zařízeních. Podporuje dlouhý kontext (až 32 tisíc tokenů) a je navržen tak, aby poskytoval kvalitnější “myšlenkové” odpovědi v malém 1,2B modelu.
Unikátní charakteristiky
Tento model je unikátní implementací ‘thinking’ (uvažovacího) procesu do extrémně malého modelu (1.2B), který je navržen pro běh na koncových zařízeních (edge). Využívá architekturu Liquid Neural Networks pro efektivnější zpracování sekvencí než tradiční Transformery.
Silné stránky
Efektivita a velikost
S 1.2 miliardami parametrů je model extrémně lehký, což umožňuje nasazení s minimální latencí a nulovými náklady v rámci free tieru.
Schopnost uvažování (Reasoning)
Na svou velikost vykazuje nadprůměrné schopnosti v logických úlohách a agentním rozhodování, kde obvykle dominují modely nad 7B parametrů.
Slabé stránky
Omezené kontextové okno
Kapacita 32,768 tokenů je výrazně nižší než u konkurence (běžně 128k-1M+), což limituje použití pro analýzu rozsáhlých dokumentů.
Faktická znalostní báze
Vzhledem k velikosti 1.2B nemůže model interně uchovávat tolik faktických informací jako větší modely, což zvyšuje závislost na RAG (externích datech).