U
Upstage 27. 1. 2026

Upstage: Solar Pro 3 (free)

upstage/solar-pro-3:free

Vynikající volba pro projekty vyžadující podporu korejštiny a japonštiny s nulovými náklady na inferenci, ačkoliv velikost kontextu zaostává za špičkou roku 2025.

$0 / 1M vstup
$0 / 1M výstup
128k kontext
text text Optimalizace pro korejštinuEfektivita inferenceVícejazyčná podpora (EN/JP/KR)

⚖️ Porovnání s konkurencí

Model Cenové srovnání Poznámka
Upstage Solar Pro 3 (free)
← Právě prohlížíte
MistralAI Devstral 2512
Solar je zdarma, Devstral je extrémně levný ($0.05/1M input) Devstral nabízí dvojnásobný kontext (262k) a je pravděpodobně silnější v kódování, Solar vede v asijských jazycích.
DeepSeek DeepSeek v3.2
Solar je zdarma, DeepSeek stojí $0.25/1M input Oba modely využívají efektivní architekturu (MoE/sparse), DeepSeek je silnější v logice a matematice, Solar v lokalizaci.
Solar je zdarma, Grok stojí $0.20/1M input Grok dominuje velikostí kontextu (2M tokenů) a rychlostí pro západní jazyky, Solar je lepší volbou pro specifické KR/JP úlohy.

🎯 Rozhodovací pomocník

Použij když...

  • Vícejazyční chatboti (KR/EN/JP)
  • Rychlá sumarizace textů
  • Lokalizace obsahu

Nepoužívej když...

  • Analýza extrémně dlouhých dokumentů (>128k tokenů)
  • Komplexní vědecké uvažování vyžadující SOTA dense modely
Ideální pro:
Vývojáři aplikací pro asijský trhStartupy s omezeným rozpočtemPoskytovatelé překladatelských služeb

📝 Detailní popis

Solar Pro 3 je výkonný jazykový model typu Mixture-of-Experts (MoE) od společnosti Upstage. S celkovým počtem 102 miliard parametrů a 12 miliardami aktivních parametrů na jeden průchod dopřednou sítí (forward pass) poskytuje výjimečný výkon při zachování výpočetní efektivity. Optimalizováno pro korejštinu s podporou angličtiny a japonštiny.

Unikátní charakteristiky

Solar Pro 3 využívá architekturu Mixture-of-Experts k dosažení výkonu modelu třídy 100B+ při výpočetních nákladech odpovídajících pouze 12B aktivním parametrům. Model je specificky vyladěn pro vysokou lingvistickou přesnost v korejštině, angličtině a japonštině, čímž se odlišuje od obecných západních modelů.

Silné stránky

Efektivita inference

Díky pouze 12B aktivním parametrům na průchod nabízí model vysokou rychlost generování a nízkou latenci srovnatelnou s mnohem menšími modely.

Jazyková specializace

Vykazuje nadprůměrné výsledky v úlohách zahrnujících korejštinu a japonštinu, kde často překonává i větší obecné modely.

Poměr cena/výkon

V uvedené verzi je model poskytován zdarma, což představuje bezkonkurenční hodnotu pro nízkonákladové implementace.

Slabé stránky

Kontextové okno

Kapacita 128 000 tokenů je v kontextu prosince 2025 podprůměrná, konkurence běžně nabízí 200k až 2M tokenů.

Všeobecné znalosti

Jako specializovaný model může zaostávat v obecných znalostech a logice mimo asijský kulturní kontext oproti modelům jako Claude Opus nebo GPT-5.2.