Proč vás Perplexity najednou přestala poslouchat a jak to vyřešit

Co bylo donedávna silnou stránkou Perplexity, se stává její největší slabinou. Pokud jste si vytvořili vlastní prostory s detailními instrukcemi a najednou zjišťujete, že je AI jednoduše ignoruje, nejste sami. Automatický výběr modelů, který měl práci zjednodušit, teď paradoxně nutí uživatele vracet se k základům a ručně vybírat mezi jednotlivými modely podle jejich schopností.
Proč vás Perplexity najednou přestala poslouchat a jak to vyřešit

Co se vlastně děje

V poslední době se množí případy, kdy Perplexity prostě nedělá, co má. Můžete mít vytrénovaný prostor s podrobnými instrukcemi, které jste laďovali týdny, a přesto dostáváte odpovědi, jako by vás AI slyšela poprvé v životě.

Problém není ve vašich instrukcích ani v tom, že byste něco pokazili. Jádro věci leží v automatickém výběru modelu, který Perplexity používá ve výchozím nastavení. Systém se snaží být chytrý a sám rozhodnout, který model je pro váš dotaz nejvhodnější. Jenže občas se splete.

Když Sonar místo hledání začne odpovídat

Perplexity má vlastní model Sonar, který je vynikající v tom, na co byl stvořený – hledání informací na webu. Když ho ale systém automaticky vybere pro úkol, který vyžaduje přesné dodržování instrukcí, nastává problém. Sonar se prostě nechová jako asistent, který rozumí vašim pokynům. Ignoruje strukturu, kterou jste zadali, nedrží se vašeho tónu a v podstatě dělá, co chce.

Je to trochu jako kdybyste poslali kurýra, aby vám napsal důležitý email. Najde správné údaje, ale text bude vypadat úplně jinak, než jste zamýšleli.

RSdckef1II88WpcyGuF13FGxO8.png
Sonar Perplexity

Claude Sonnet 4.5 jako záchrana

Když místo automatického výběru nastavíte model Claude Sonnet 4.5 Reasoning, rozdíl je jako noc a den. Tento model je skutečně schopný pochopit vaše instrukce a důsledně se jich držet. Rozumí kontextu, respektuje strukturu a dokáže přemýšlet nad tím, co po něm chcete.

Musíte ho ale aktivovat ručně před tím, než začnete komunikovat. To znamená jeden krok navíc před každým použitím, ale výsledky to jednoznačně stojí. Dostanete přesně to, co jste chtěli, bez nutnosti opakovat se nebo opravovat chaos.

image 7
Kde zvolit vlastní model

Zpátky do dob výběru modelů

Ironie celé situace je v tom, že automatizace, která měla uživatelům usnadnit práci, je teď vrací zpátky do stadia, kdy musí rozumět rozdílům mezi jednotlivými modely. Před několika měsíci jste mohli spoléhat na to, že Perplexity vybere správný nástroj. Teď musíte vědět, kdy použít Claude pro dodržování instrukcí a kdy nechat Sonar hledat informace.

Pro někoho, kdo AI používá denně, to není velký problém. Pro běžného uživatele, který jen chce, aby věci fungovaly, je to frustrující krok zpět. Musí se naučit, co který model umí, a přemýšlet nad tím, který zvolit pro konkrétní úkol.

Co to znamená pro vaši praxi

Pokud používáte Perplexity s vlastními prostory, je čas přizpůsobit svůj workflow. Před každým důležitým úkolem, který vyžaduje dodržování instrukcí, si zkontrolujte, který model máte aktivní. Claude Sonnet 4.5 Reasoning by měl být vaší první volbou pro práci s detailními pokyny.

Není to ideální řešení, ale funguje. A dokud Perplexity nevylepší logiku automatického výběru, je to nejjednodušší cesta k předvídatelným výsledkům.

Chceš dostávat další tipy o AI?

Přihlas se k odběru a zhruba 2x měsíčně ti pošlu to nejlepší ze světa AI.

Name(Required)
Privacy(Required)

Další články

Nový Slackbot umí vytvářet plány, připravovat vás na schůzky a hlídat priority

Slack představil na konferenci Dreamforce 2025 kompletně přestavěného Slackbota. Není to jen kosmetická úprava, ale opravdová proměna v personalizovaného AI asistenta, který rozumí kontextu vaší práce. Nový Slackbot dokáže připravit projektový plán z poznámek, najít informace i když si pamatujete jen pár detailů, nebo vám ráno připravit seznam priorit. A to není science fiction, ale realita dostupná už teď.

Celý článek >

Zjistili jsme proč si AI vymýšlí a jak se tomu naučit předcházet

Každých pár týdnů se objeví titulky o tom, jak AI lže, konspiruje nebo dokonce svádí uživatele. Zní to děsivě, ale realita je mnohem prozaičtější. Nejrozsáhlejší studie svého druhu přitom ukázala, že AI asistenti chybují téměř v polovině případů. ChatGPT není žádný padouch z Bondovky. Je to statistický nástroj s konstrukčními chybami, které mohly být předejity. A co víc – část problému jsou samotní uživatelé, kteří nerozumí, jak s nástroji správně pracovat.

Celý článek >