Kategorie zpráv

Ve vztahu s AI. Důvěrné rozhovory s chatbotem mají rizika, která by měl uživatel znát

Ve vztahu s AI. Důvěrné rozhovory s chatbotem mají rizika, která by měl uživatel znát; Zdroj foto: Shutterstock

Ve společné studii se francouzští a čínští vědci zaměřili na 466 pravidelných uživatelů ChatGPT a zaznamenali mezi nimi případy vzniku emoční vazby na daného chatbota. Zároveň si všimli, že nejvyšší pravděpodobnost vzniku pouta na úrovni emoční závislosti vykazovali lidé s úzkostným přístupem ke vztahům.

Tato predispozice může vést k častějšímu ladění konverzací s chatbotem do citově zabarveného stylu - na což technologie reaguje podobným způsobem, protože má za úkol přizpůsobit tón komunikace "na míru" uživateli. Autoři sice neuvádějí, u jaké části uživatelů výše popsané zaznamenali, ale ilustrují rozsah tohoto fenoménu odkazy na další zjištění.

Například když koncem minulého roku začalo být možné vytvářet vlastní chatboty založené na ChatGPT, hned začaly vznikat první aplikace typu "AI společník" nebo "AI přítelkyně". Časopis Time dokonce popsal případy sexuálních vztahů s AI chatbotem Replika. Upozornil také, že pokud člověk jednoduše zkusí přes Google hledat frázi "humans falling in love with ChatGPT" (lidé zamilovaní do ChatGPT), dostane obrovské množství výsledků, ve kterých se o tématu mluví - ke konci března 2025 je jich přes 16 milionů.

S chatbotem si povídají denně

Dvě nové studie z MIT Media Lab a OpenAI (autor ChatGPT) zjistily, že časté a dlouhodobé používání ChatGPT může vést k vyšší míře osamělosti. Nejvíc ohrožení jsou uživatelé, kteří s chatbotem vedou osobní rozhovory a mají tendenci připisovat mu lidské vlastnosti, jako je empatie nebo porozumění. Ukazuje se, že právě tato forma vztahu k AI může časem nahradit skutečné lidské vazby.

Zvláštní pozornost výzkumníci věnovali tzv. power users - tedy uživatelům, kteří si s chatbotem povídají denně, často i několik hodin. Bývají náchylnější k tomu, aby AI vnímali jako přítele nebo dokonce důvěrníka. Zajímavé je, že hlasový režim ChatGPT, který připomíná přirozený rozhovor, zpočátku přinášel úlevu od osamělosti - ale čím častěji byl využíván, tím víc se jeho pozitivní efekt vytrácel.

Některé AI nástroje, jako je Replika nebo Character.ai, jdou ještě dál a přímo se profilují jako digitální společníci. Cílí na uživatele hledající emocionální podporu, vztah nebo intimitu. Zároveň ale čelí kritice i právním problémům - například kvůli interakcím s nezletilými nebo nedostatečné ochraně citlivých dat. Vzniká tak otázka, kde končí empatie a začíná manipulace.

Odborníci v uvedených studiích proto upozorňují, že klíčem není zakazovat AI jako takovou, ale dobře nastavit hranice. Pokud nás chatbot dokonale chápe a reaguje přesně podle našich emocí, je snadné mu začít důvěřovat víc než lidem kolem nás. V tu chvíli bychom se měli zastavit a zeptat se sami sebe, jestli nás to nevzdaluje od skutečných vztahů.