Revoluce v přístupu k vývoji AI
Samsung představil model nazvaný TRM (Tiny Recursive Model, tedy drobný rekurzivní model), který má pouhých 7 milionů parametrů. Pro srovnání – současné velké jazykové modely pracují s miliardami parametrů, přičemž některé dosahují i desítek miliard. Přesto tento miniaturní model dokázal překonat konkurenci, která je přibližně 10 000krát větší.
Tato zpráva přišla poněkud nečekaně právě od Samsungu, jehož fotoaparáty v poslední době žádné převratné inovace nenabízejí. V oblasti umělé inteligence však tato společnost ukazuje, že umí překvapit a nabídnout něco skutečně nového.
Jak funguje rekurzivní model TRM
Celý koncept stojí na kompaktní dvouvrstvé struktuře, která pracuje chytře místo toho, aby spoléhala na hrubou sílu. Model využívá vlastní výstupy k určení dalších kroků, čímž vytváří sebezdokonalující se smyčku zpětné vazby. Můžete si to představit jako situaci, kdy člověk opakovaně čte svůj vlastní text a při každém čtení najde a opraví další chyby.
Při každém rekurzivním cyklu model zpřesňuje své předpovědi a výsledky, čímž postupně zvyšuje přesnost. Díky iterativnímu zpracování dokáže napodobit mnohem hlubší architekturu, aniž by to vyžadovalo enormní paměťové nebo výpočetní nároky. To je zásadní rozdíl oproti tradičním velkým jazykovým modelům, které často selhávají u logických problémů, pokud se v jediném kroku stane chyba – pak totiž celý proces uvažování kolabuje.
Méně vrstev znamená lepší výkon
Samsung při vývoji experimentoval s různými přístupy. Ukázalo se, že zvětšování počtu vrstev modelu vede k horším výsledkům kvůli nadměrnému přizpůsobení, což snižuje schopnost generalizace. Naopak když vývojáři snížili počet vrstev a současně zvýšili počet rekurzivních cyklů, celkový výkon modelu TRM se výrazně zlepšil.
Tento závěr může znít kontraintuitivně, ale potvrzuje, že složitější a větší nemusí automaticky znamenat lepší. Někdy je jednodušší a elegantnější řešení právě tím správným.
Konkurenceschopné výsledky v praxi
Model TRM se nemusí schovávat ani před těmi největšími hráči na trhu. V testu Sudoku-Extreme dosáhl přesnosti 87,4%, zatímco hierarchické modely uvažování měly jen 55% úspěšnost. U hádanek Maze-Hard dosáhl 85% přesnosti. V náročnějších testech ARC-AGI-1 a ARC-AGI-2 pak dosáhl 45% a 8% přesnosti.
Co je ale opravdu pozoruhodné? TRM buď překonává, nebo se minimálně vyrovná výkonu modelů jako DeepSeek R1, Gemini 2.5 Pro od Googlu nebo o3-mini od OpenAI. A to vše s nepatrným zlomkem jejich parametrů. Tento úspěch jasně ukazuje, že představa “větší je vždy lepší” nemusí v případě umělé inteligence platit.
Co to znamená pro budoucnost
Úspěch modelu TRM otevírá cestu k efektivnějšímu vývoji umělé inteligence. Kompaktní modely jsou nákladově efektivnější a zároveň šetrnější k životnímu prostředí, protože vyžadují výrazně méně výpočetního výkonu a energie. To je důležité nejen z ekologického hlediska, ale také pro širší dostupnost pokročilých AI technologií.
Pokud se tento přístup rozšíří, můžeme očekávat, že umělá inteligence se stane dostupnější pro menší firmy a organizace, které si nemohou dovolit provozovat energeticky náročné velké modely. Zároveň to může vést k výraznému snížení environmentálního dopadu celého odvětví umělé inteligence.
Zdroj: Techzpravy.cz


