Mega srovnání AI modelů

Na školeních se mě lidé stále ptají, který model je nejlepší.

Tak jsem pro vás nachystal největší srovnání podle účelu, na co chcete umělou inteligenci použít. 

MoonshotAI Kimi K2

Kimi K2 je masivní 1T parametrický model Mixture-of-Experts (MoE), který aktivuje 32B parametrů na token. Je navržen jako agentický model „reflexní úrovně“, optimalizovaný pro extrémně rychlé používání nástrojů a sledování instrukcí bez latence hlubokého uvažování.

Nejlepší na
  • Univerzální asistenti
  • složitá extrakce dat
  • pracovní postupy agentů vyžadující široké znalosti, ale rychlé reakce
Silné stránky
  • Rozsáhlá znalostní báze (1T parametrů) s efektivní inferencí
  • Optimalizováno speciálně pro agentní pracovní postupy a orchestraci nástrojů
  • Vysoká stabilita v úlohách s dlouhým kontextem (až 256 tisíc tokenů)
Omezení
  • Chybí hloubka autokorekce varianty „Thinking“
  • Limity rychlosti API mohou být přísné kvůli velikosti modelu

OpenAI O1 Preview 128k

OpenAI O1 Preview (dříve „Strawberry“) je průkopnický model uvažování, který veřejnosti představil zpracování „řetězce myšlenek“. Před odpovědí ověřuje svou logiku, což z něj činí spolehlivou, i když o něco pomalejší, volbu pro složité objektivní problémy.

Nejlepší na
  • Zastaralé pracovní postupy vyžadující ověřené uvažování
  • Výzkumníci v oblasti STEM
  • řeší logické hádanky, kde rychlost není prioritou
Silné stránky
  • Vysoká přesnost v matematických a fyzikálních problémech
  • Schopnost „autokorekce“ pro zachycení logických chyb během generování
  • Dobrý v rozbalování hustých a složitých instrukcí
Omezení
  • Pomalejší a dražší než novější řada „o3“
  • Nelze procházet web ani zpracovávat soubory tak plynule jako modely „Pro“ nebo „Omni“

OpenAI O1 Mini 128k

o1 Mini je destilovaná verze modelu uvažování o1. Je optimalizována speciálně pro úkoly STEM (věda, technologie, inženýrství, matematika) a nabízí vysokou logickou sílu za nižší cenu a vyšší rychlost.

Nejlepší na
  • Ladění kódu
  • Řešení matematických domácích úkolů
  • Technické otázky a odpovědi
Silné stránky
  • Výjimečný v kódování a matematice vzhledem k velikosti/ceně
  • Mnohem rychlejší „myšlenkový“ proces než plnohodnotný o1
  • Nákladově efektivní pro iterativní technické úkoly
Omezení
  • Špatné znalosti světa (nevhodné pro kvízy/historii)
  • Nevhodné pro tvůrčí psaní nebo jazykově náročné úkoly

OpenAI O3 Mini 128k

O3 Mini v sobě spojuje pokročilé uvažování O3 do cenově dostupného a vysokorychlostního balíčku. Je navržen jako „usměrňovací engine“ pro každodenní aplikace, schopný samoopravy bez masivní výpočetní režie.

Nejlepší na
  • Asistentní pracovníci pro chytré kódování
  • Agenti pro směrování komplexních dat
  • Vzdělávací nástroje STEM pro studenty
Silné stránky
  • Cenově dostupné „zdůvodnění“ pro aplikace s velkým objemem úloh
  • Vynikající sledování instrukcí pro složité formátování
  • Velmi rychlé generování a ladění kódu
Omezení
  • Chybí mu hluboké encyklopedické znalosti celého světa O3.
  • Může mít potíže s extrémně abstraktní teoretickou fyzikou/matematikou.

QwQ 32B

QwQ 32B je experimentální model „usuzování“ od týmu Qwen. Využívá proces sebehodnocení k rozboru složitých problémů a dosahuje vysokého skóre v matematice a programování.

Nejlepší na
  • Matematické úlohy
  • logické hádanky
  • algoritmický návrh kódu
Silné stránky
  • Možnosti hlubokého uvažování pro model 32B
  • Transparentnost v „myšlenkovém procesu“ (pokud je povolena)
  • Překonává mnoho větších modelů v matematických testech
Omezení
  • Může se zaseknout v „příliš přemýšlivých“ smyčkách.
  • Stav „Náhled“ naznačuje potenciální nestabilitu.

Qwen3 30B A3B Thinking

Tato varianta umožňuje „režim myšlení“ na architektuře A3B, což umožňuje odlehčenému modelu překonat svou váhu tím, že tráví více času uvažováním o složitých vstupech.

Nejlepší na
  • Mobilní nebo edge aplikace vyžadující ověření logiky bez nutnosti masivního cloudového výpočtu
Silné stránky
  • Proces „myšlení“ kompenzuje menší aktivní velikost
  • Překvapivě dobrý v matematice a logice na svou rychlost
  • Efektivní uvažování s omezeným rozpočtem
Omezení
  • Režim myšlení zvyšuje latenci a neguje tak výhodu v rychlosti
  • Stále omezen základní kapacitou MoE

Qwen3 32B

Qwen 3 32B je hustý, vysoce výkonný standard řady Qwen 3. Na rozdíl od verzí MoE využívá všechny parametry 32B pro každý token, čímž poskytuje maximální hustotu inteligence a uvažování.

Nejlepší na
  • „Zlatý standard“ pro lokální uživatele LLM (vejde se na 24 GB VRAM)
  • kódovací asistenti
  • univerzální lokální agenti
Silné stránky
  • Lídr v benchmarku pro velikostní třídu ~30B (prosinec 2025)
  • Vynikající rovnováha mezi programováním, matematikou a tvůrčím psaním
  • Silnější uvažování než u variant A3B
Omezení
  • Pomalejší než verze A3B MoE
  • Vyžaduje slušný grafický procesor (pro plný kontext doporučeno 24 GB)

Qwen 3 30B A3B

Qwen 3 30B A3B je vysoce efektivní model typu Mixture-of-Experts (MoE). Má celkem 30 miliard parametrů, ale aktivuje pouze 3 miliardy na token („A3B“), takže je stejně rychlý jako malý model a zároveň si zachovává znalosti středně velkého modelu.

Nejlepší na
  • Zpracování velkého objemu dat
  • kategorizace
  • jednoduché otázky a odpovědi ve velkém měřítku
Silné stránky
  • Bleskově rychlá inference (aktivuje pouze ~3 miliardy parametrů)
  • Vysoká propustnost pro dávkové zpracování
  • Dobrá schopnost uchovat si obecné znalosti
Omezení
  • Varianta modelu „Základní“ (není naladěna na chat)
  • Uvažování je omezeno na počet aktivních parametrů (úroveň 3B)

Qwen3 30B A3B Instruct

Verze modelu A3B MoE s upravenými instrukcemi. Je navržena pro konverzační interakci a provádění úkolů a nabízí jedinečnou kombinaci vysoké rychlosti a úctyhodné inteligence.

Nejlepší na
  • Boti zákaznické podpory v reálném čase
  • shrnutí
  • jednoduchí agenti sledující příkazy
Silné stránky
  • Extrémně nízká latence pro model třídy 30B
  • Cenovo výhodný pro jednoduché agentní úkoly
  • Dobré dodržování instrukcí
Omezení
  • Složité logické hádanky mohou selhat kvůli nízkému počtu aktivních parametrů
  • Nejsem hluboký výzkumník ani kreativní spisovatel

Mixtral 8x22B Instruct

Mixtral 8x22B je masivní model Mixture-of-Experts s otevřenou hmotností. Nabízí celkem více než 140 miliard parametrů (s aktivními 39 miliardami), což poskytuje výkon na úrovni vlajkové lodi a umožňuje samostatné hostování.

Nejlepší na
  • Podniky hostující vlastní model „třídy GPT-4“
  • výzkumné laboratoře
  • komplexní dávkové zpracování
Silné stránky
  • Obrovská kapacita znalostí a uvažování
  • Kontextové okno o velikosti 64k+
  • Otevřené váhy umožňují jemné doladění a ochranu soukromí
Omezení
  • Vyžaduje pro svůj chod značné množství VRAM (více špičkových GPU)
  • Pomalejší než varianta 8x7B

SorcererLM 8x22B

SorcererLM je masivní model od Mixture-of-Experts (pravděpodobně založený na WizardLM-2 8x22B) vyladěný pro kreativní a magický realismus. Nabízí obrovské kontextové okno a vysokou inteligenci pro komplexní proplétání narativního děje.

Nejlepší na
  • Psaní dlouhých románů
  • Game Masters (D&D)
  • budování komplexních světů
Silné stránky
  • Rozsáhlá architektura MoE (141 miliard parametrů) pro hluboké znalosti
  • Vynikající pro práci s více postavami a složitými zápletkami
  • Vysoká schopnost zachovat kontext
Omezení
  • Velmi obtížné spuštění lokálně (vyžaduje vysokou paměť VRAM)
  • Může být podrobné

Sao10K: Llama 3.3 Euryale 70B

Aktualizovaná verze Euryale je postavena na architektuře Llama 3.3. Přináší vylepšené uvažování a instrukce navazující na tvůrčí linii Euryale a nabízí ještě větší soudržnost.

Nejlepší na
  • Absolutní vrchol umělé inteligence v oblasti tvůrčího psaní/hraní rolí (koncem roku 2025)
Silné stránky
  • Vynikající logika a prostorové vnímání při vyprávění příběhů
  • Aktualizovaná znalostní báze a architektura Llama 3.3
  • Špičkové možnosti hraní rolí ve své třídě
Omezení
  • Vysoké výpočetní nároky
  • Přísné zaměření na „kreativitu“ (ne na kódování)