Když AI popustí uzdu fantazii až příliš
Všichni víme, že nástroje jako ChatGPT, Grok nebo Gemini nám dokáží ušetřit hodiny práce. Rád říkám, že AI je jako velmi sečtělý, ale občas trochu zmatený stážista. Problém nastává ve chvíli, kdy tento stážista začne s naprostou vážností tvrdit věci, které nejsou pravda. V poslední době to nejvíce pociťují lidé, jejichž denním chlebem je práce s fakty – knihovníci.
Podle nových zpráv jsou pracovníci knihoven doslova zavaleni dotazy na knihy a vědecké články, které nikdy nebyly napsány. Sarah Falls z Library of Virginia odhaduje, že přibližně 15% všech e-mailových dotazů, které obdrží, má původ právě v halucinacích umělé inteligence. Lidé přijdou s přesným názvem, autorem i rokem vydání, a když jim knihovník sdělí, že takové dílo neexistuje, nechtějí tomu věřit.
Je fascinující a zároveň trochu děsivé sledovat, jak se mění naše důvěra. Uživatelé mají často pocit, že knihovník jen nehledá dostatečně důkladně nebo jim informace tají. Přitom paradoxně věří více generátoru textu, který si informaci “vymyslel” na základě pravděpodobnosti slov, než člověku, který se v databázích pohybuje celý život.
Varování před digitálními přeludy
Situace došla tak daleko, že i velké instituce musí vydávat oficiální prohlášení. Například Mezinárodní výbor Červeného kříže musel upozornit badatele, že pokud nemohou najít odkazovaný dokument, neznamená to, že ho instituce zatajuje. Často jde prostě o to, že si ho umělá inteligence vymyslela. AI totiž funguje na principu doplňování slov, a pokud po ní chcete citaci, která by “mohla” existovat, ona ji s radostí vytvoří, aby vám vyhověla.
Není to ale jen problém běžných uživatelů. I v médiích a politice se objevují případy, kdy se spoléhalo na AI bez ověření. Novinář pro Chicago Sun-Times například sestavil letní čtenářský seznam pomocí AI, kde deset z patnácti doporučených knih vůbec neexistovalo. Podobné problémy se objevily i v politických reportech v USA, kde byly citovány neexistující studie.
Je důležité si uvědomit, že vymyšlené citace nejsou novinkou, kterou přinesla až AI. Už roky před příchodem ChatGPT existovaly případy, kdy akademici citovali neexistující články z čisté lenosti. Rozdíl je však v tom, že umělá inteligence dává těmto výmyslům punc autority. Mluví na nás sebejistým tónem, který v nás automaticky vzbuzuje důvěru.
Proč kouzelná slůvka nefungují
Možná si říkáte, že stačí do zadání pro AI napsat “nehluciuj” nebo “uváděj jen pravdivé zdroje”. Kéž by to bylo tak jednoduché. Mnoho uživatelů si vyvinulo vlastní rituály a věří, že když chatbotovi důrazně přikáží, aby nelhal, dostanou stoprocentně přesný výsledek. Bohužel, takhle jazykové modely zatím nefungují.
Pokud by existoval jednoduchý příkaz, který by zaručil bezchybnost, vývojáři v Google nebo OpenAI by ho už dávno integrovali jako základní nastavení. Spoléhat se na to, že AI na příkaz “buď přesná” přestane halucinovat, je jako doufat, že auto pojede rychleji, když ho poplácáte po kapotě. Technologie se sice zlepšuje, ale kritické myšlení a ověřování faktů zůstává stále na nás.
Na závěr bych rád přidal jednu radu, kterou dávám i svým klientům při školení:
- Berte AI jako kreativního partnera, ne jako neomylnou encyklopedii.
- Pokud vám AI doporučí knihu nebo článek, první krok by měl vést do Google vyhledávače nebo databáze knihovny.
- Pokud zdroj nenajdete tam, s největší pravděpodobností neexistuje, ať se chatbot tváří sebevíc přesvědčivě.
Zdroj: Gizmodo