Na školeních se mě lidé stále ptají, který model je nejlepší.
Tak jsem pro vás nachystal největší srovnání podle účelu, na co chcete umělou inteligenci použít.
Kimi K2 je masivní 1T parametrický model Mixture-of-Experts (MoE), který aktivuje 32B parametrů na token. Je navržen jako agentický model „reflexní úrovně“, optimalizovaný pro extrémně rychlé používání nástrojů a sledování instrukcí bez latence hlubokého uvažování.
OpenAI O1 Preview (dříve „Strawberry“) je průkopnický model uvažování, který veřejnosti představil zpracování „řetězce myšlenek“. Před odpovědí ověřuje svou logiku, což z něj činí spolehlivou, i když o něco pomalejší, volbu pro složité objektivní problémy.
o1 Mini je destilovaná verze modelu uvažování o1. Je optimalizována speciálně pro úkoly STEM (věda, technologie, inženýrství, matematika) a nabízí vysokou logickou sílu za nižší cenu a vyšší rychlost.
O3 Mini v sobě spojuje pokročilé uvažování O3 do cenově dostupného a vysokorychlostního balíčku. Je navržen jako „usměrňovací engine“ pro každodenní aplikace, schopný samoopravy bez masivní výpočetní režie.
QwQ 32B je experimentální model „usuzování“ od týmu Qwen. Využívá proces sebehodnocení k rozboru složitých problémů a dosahuje vysokého skóre v matematice a programování.
Tato varianta umožňuje „režim myšlení“ na architektuře A3B, což umožňuje odlehčenému modelu překonat svou váhu tím, že tráví více času uvažováním o složitých vstupech.
Qwen 3 32B je hustý, vysoce výkonný standard řady Qwen 3. Na rozdíl od verzí MoE využívá všechny parametry 32B pro každý token, čímž poskytuje maximální hustotu inteligence a uvažování.
Qwen 3 30B A3B je vysoce efektivní model typu Mixture-of-Experts (MoE). Má celkem 30 miliard parametrů, ale aktivuje pouze 3 miliardy na token („A3B“), takže je stejně rychlý jako malý model a zároveň si zachovává znalosti středně velkého modelu.
Verze modelu A3B MoE s upravenými instrukcemi. Je navržena pro konverzační interakci a provádění úkolů a nabízí jedinečnou kombinaci vysoké rychlosti a úctyhodné inteligence.
Mixtral 8x22B je masivní model Mixture-of-Experts s otevřenou hmotností. Nabízí celkem více než 140 miliard parametrů (s aktivními 39 miliardami), což poskytuje výkon na úrovni vlajkové lodi a umožňuje samostatné hostování.
SorcererLM je masivní model od Mixture-of-Experts (pravděpodobně založený na WizardLM-2 8x22B) vyladěný pro kreativní a magický realismus. Nabízí obrovské kontextové okno a vysokou inteligenci pro komplexní proplétání narativního děje.
Aktualizovaná verze Euryale je postavena na architektuře Llama 3.3. Přináší vylepšené uvažování a instrukce navazující na tvůrčí linii Euryale a nabízí ještě větší soudržnost.