Aktualizace z 28. května původního modelu DeepSeek R1 s výkonem srovnatelným s OpenAI o1, ale s otevřeným zdrojovým kódem a plně otevřenými reasoning tokeny. Má velikost 671B parametrů, přičemž 37B je aktivních v jednom inferenčním průchodu.
Plně open-source model.
Unikátní charakteristiky
DeepSeek R1 0528 je aktualizovaná verze open-source modelu zaměřeného na ‘reasoning’ (řetězec myšlenek), která využívá efektivní architekturu Mixture-of-Experts k dosažení výkonu srovnatelného s proprietárními modely jako OpenAI o1. Model je unikátní tím, že zpřístupňuje nejen váhy, ale i kompletní ‘reasoning tokens’, což umožňuje transparentní pohled na proces řešení problémů při zachování nízkých inferenčních nákladů.
Silné stránky
Poměr cena/výkon
S cenou $0.40 za 1M vstupních tokenů nabízí schopnosti uvažování na úrovni SOTA modelů za zlomek ceny konkurence (např. oproti GPT-5.2 Codex).
Transparentnost uvažování
Na rozdíl od uzavřených modelů poskytuje plný přístup k myšlenkovému procesu (CoT), což je klíčové pro ladění a verifikaci složitých úloh.
Efektivita inference
Díky aktivaci pouze 37B parametrů z celkových 671B je model překvapivě efektivní na provoz, přestože má obrovskou kapacitu znalostí.
Slabé stránky
Omezená multimodalita
Model je striktně text-to-text, chybí schopnost zpracování obrazu či zvuku, kterou nabízí konkurence jako Gemini 3 Pro nebo GPT-Audio.
Kontextové okno
Kapacita 163,840 tokenů je sice dostatečná pro většinu úloh, ale zaostává za standardem 1M+ tokenů u modelů Google a Anthropic v roce 2025.