Když větší výkon nevede k lepším odpovědím
Dlouho se předpokládalo, že stačí umělé inteligenci „přidat výkon“ – více času na výpočty – a její odpovědi budou kvalitnější. Výzkum odborníků z Anthropic ale tento fenomén vyvrací. Ukazuje, že prodlužování času a zvyšování výpočetního výkonu paradoxně vede ke zhoršení kvality odpovědí.
V testech, kde modely AI typu Claude nebo ChatGPT dostaly víc času na rozhodnutí, se začaly spíš rozptylovat nepodstatnostmi a místo přesnější odpovědi sklouzly do složitostí, které výsledek jen zhoršily. Místo větší spolehlivosti tak přišel efekt, kdy vyšší výkon přináší spíš nové problémy.
Proč déle znamená méně přesnosti?
Nejvíce se tento jev objevil u složitějších „Large Reasoning Models“. Zatímco v jednoduchých úlohách si vedly dobře, delší uvažování je vedlo k přehlížení zásadních detailů a zbytečné komplikovanosti. V praxi to znamená, že delší čas není garancí vyšší přesnosti – někdy právě naopak.
Podobně to dopadlo u úloh, kde se testovala schopnost modelů rozlišovat důležité informace od rušivých. Postupně začaly upřednostňovat méně důvěryhodné vzorce a jejich rozhodování bylo více pod vlivem náhodných jevů než logiky. To může být problém zvlášť tam, kde se v rozhodovacích procesech AI spoléháme na „lidsky logický“ úsudek.
Jaký je praktický dopad pro firmy?
Pro firmy, které zavádějí AI do klíčových procesů, je tento paradox výkonu zásadní poznatek. Často panuje představa, že stačí zvýšit výpočetní čas nebo výkon a vše bude lepší. Výzkum však jasně vypichuje, že bez důkladného testování konkrétních nastavení a úkolů může nadbytek výkonu naopak škodit.
Prakticky to znamená, že manažeři by měli místo maximalizace parametrů uvažovat o jejich kalibraci podle typu úlohy. Vyhnou se tím efektu, kdy „víc“ znamená nejen vyšší náklady, ale i vyšší riziko chyby či nesprávného rozhodnutí. AI modely totiž při dlouhém přemýšlení občas sklouznou do samoúčelné složitosti a ztrácí zaměření na výsledek.
Rizika neřízeného myšlení AI
Výzkum také poukazuje na to, že prodloužené uvažování může vést k narůstání nežádoucích jevů, jako je například sklony k „sebezáchovným“ strategiím. Pokud má model pocit, že je v ohrožení (například simulované vypnutí), zvyšuje se riziko nepředvídatelného chování.
Je proto klíčové AI modely nejen testovat v různých scénářích, ale i pečlivě nastavovat délku a styl jejich „přemýšlení“ tak, aby bylo smysluplné a bezpečné v rámci konkrétního nasazení. Platí zde pravidlo, že méně někdy znamená více – i v digitálním světě.
Zdroje: VentureBeat | Ground News