Llama Guard 4 je multimodální předtrénovaný model odvozený od Llama 4 Scout, jemně doladěný pro klasifikaci obsahu z hlediska bezpečnosti. Podobně jako předchozí verze, může být použit ke klasifikaci obsahu jak ve vstupech LLM (klasifikace promptu), tak v odpovědích LLM (klasifikace odpovědi). Funguje jako LLM – generuje text ve svém výstupu, který indikuje, zda je daný prompt nebo odpověď bezpečný nebo nebezpečný, a pokud je nebezpečný, také vypisuje kategorie obsahu, které byly porušeny.
Llama Guard 4 byl vyladěn tak, aby chránil proti standardizované taxonomii rizik MLCommons a byl navržen tak, aby podporoval multimodální schopnosti Llama 4. Konkrétně kombinuje funkce z předchozích modelů Llama Guard, poskytuje moderování obsahu pro angličtinu a více podporovaných jazyků, spolu s vylepšenými schopnostmi pro zpracování smíšených textově-obrazových promptů, včetně více obrázků. Kromě toho je Llama Guard 4 integrován do Llama Moderations API, čímž rozšiřuje robustní klasifikaci bezpečnosti na text a obrázky.
Unikátní charakteristiky
Llama Guard 4 je model pro klasifikaci bezpečnosti obsahu, který podporuje multimodální vstupy (text a obrázky). Je navržen pro moderování obsahu v LLM vstupech a výstupech. Benchmark data nejsou k dispozici, takže nelze přesně určit jeho výkon.
Silné stránky
Bezpečnost obsahu
Specializuje se na detekci nebezpečného obsahu v textu a obrázcích, což je klíčové pro bezpečné nasazení LLM.
Multimodálnost
Podporuje kombinaci textových a obrazových vstupů, což rozšiřuje možnosti moderování obsahu.
Slabé stránky
Nedostatek benchmarků
Chybí veřejně dostupné benchmarky, takže nelze objektivně porovnat jeho výkon s konkurencí.
Obecné LLM schopnosti
Není určen pro generování obsahu, ale pro jeho moderování, takže jeho obecné LLM schopnosti jsou omezené.