gpt-oss-120b je jazykový model typu Mixture-of-Experts (MoE) s otevřenými váhami a 117 miliardami parametrů od OpenAI, navržený pro vysoce náročné, agentní a všeobecné produkční případy použití. Aktivuje 5,1 miliardy parametrů na jeden průchod dopřednou sítí a je optimalizován pro běh na jedné GPU H100 s nativní kvantizací MXFP4. Model podporuje konfigurovatelnou hloubku usuzování, plný přístup k řetězci myšlenek a nativní používání nástrojů, včetně volání funkcí, procházení webu a generování strukturovaného výstupu.
Unikátní charakteristiky
Tento model představuje strategický posun OpenAI k open-weight distribuci s extrémní efektivitou, využívající architekturu MoE s pouze 5.1B aktivními parametry pro běh na jediném GPU H100. Kombinuje nativní kvantizaci MXFP4 s pokročilými schopnostmi ‘reasoning’ modelů a strukturovaným výstupem.
Silné stránky
Cena/Výkon
S cenou $0.04 za 1M vstupních tokenů je model levnější než většina ‘small’ modelů konkurence, přičemž nabízí parametry třídy 100B+.
Hardwarová efektivita
Díky aktivaci pouze 5.1B parametrů a MXFP4 optimalizaci umožňuje nasazení modelu této velikosti na jediné kartě H100, což drasticky snižuje náklady na inferenci.
Agentní schopnosti
Nativní podpora pro volání funkcí (tool use) a konfigurovatelná hloubka uvažování (reasoning depth) jej předurčuje pro komplexní autonomní úlohy.
Slabé stránky
Kontextové okno
Kapacita 131,072 tokenů je v prosinci 2025 podprůměrná ve srovnání s konkurencí nabízející běžně 200k až 2M tokenů.
Omezená multimodalita
Model je striktně text-to-text, chybí nativní zpracování obrazu či audia, které nabízí modely řady Gemini nebo GPT-4o.