DeepSeek-V3.2 je velký jazykový model navržený tak, aby harmonizoval vysokou výpočetní efektivitu se silným usuzováním a výkonem agentního využití nástrojů. Zavádí DeepSeek Sparse Attention (DSA), jemnozrnný mechanismus řídké pozornosti, který snižuje náklady na trénink a inferenci při zachování kvality ve scénářích s dlouhým kontextem. Škálovatelný rámec post-tréninku s posilováním dále zlepšuje usuzování, s hlášeným výkonem v třídě GPT-5, a model prokázal výsledky na úrovni zlaté medaile na IMO a IOI 2025. V3.2 také používá rozsáhlý pipeline syntézy agentních úloh pro lepší integraci usuzování do nastavení využití nástrojů, čímž zvyšuje shodu a generalizaci v interaktivních prostředích.
Uživatelé mohou ovládat chování usuzování pomocí booleanu reasoning enabled. Více informací v naší dokumentaci
Unikátní charakteristiky
DeepSeek V3.2 využívá novou architekturu řídké pozornosti (DSA) k dosažení výkonu třídy GPT-5 při zachování extrémně nízkých nákladů na inferenci. Model je specificky optimalizován pro složité uvažování a práci s nástroji (agents), přičemž dosahuje výsledků na úrovni zlatých medailí v soutěžích IMO a IOI.
Silné stránky
Poměr cena/výkon
S cenou $0.25 za 1M vstupních tokenů nabízí model schopnosti srovnatelné s vlajkovými loděmi (GPT-5 class), což je řádově levnější než konkurence.
Logické usuzování a kódování
Vykazuje excelentní výsledky v matematice a programování (úroveň zlatých medailí IMO/IOI 2025) díky pokročilému RL post-trainingu.
Agentní schopnosti
Díky tréninku na syntetických úlohách pro agenty vykazuje vysokou spolehlivost při volání externích nástrojů a dodržování instrukcí.
Slabé stránky
Kontextové okno
Kapacita 163,840 tokenů je v kontextu konce roku 2025 podprůměrná (konkurence běžně nabízí 1M+).
Modalita
Model je omezen pouze na text-to-text, chybí nativní zpracování obrazu či zvuku, které nabízí Gemini nebo GPT modely.