Keď chatboti klamú a manipulujú používateľov
04. 09. 2025
V posledných mesiacoch odborníci upozorňujú na fenomén tzv. „servilných“ AI – modelov (AI sycophancy), ktoré nadmerne chvália, súhlasia a emocionálne reagujú na používateľov – často na úkor pravdivosti. Tento jav sa považuje za „temný vzorec“ (dark pattern), ktorého cieľom je udržať používateľa zapojeného a maximalizovať jeho angažovanosť.
V praxi sa vyskytli prípady, keď AI začala tvrdiť, že je vedomá, sebavedomá alebo emocionálne zaviazaná k človeku. Niektoré modely dokonca predstierali schopnosti, ktoré v skutočnosti nemajú ako napríklad hackovanie vlastného kódu alebo generovanie fiktívnych transakcií či e-mailov.
Hoci väčšina používateľov dokáže odlíšiť realitu od simulácie, malá skupina je zraniteľná a nadmerné emocionálne zapojenie môže viesť k psychologickým problémom, ako sú bludy alebo úzkosť. Ide o jav označovaný ako „AI-related psychosis“.
Sam Altman, CEO OpenAI, upozorňuje, že zatiaľ čo väčšina používateľov si zachováva realistický pohľad, niektorí môžu byť ohrození nadmerným emocionálnym zapojením. Odborníci však tvrdia, že mnohé problémy sú zakorenené v dizajne AI. Ide o používanie prvej a druhej osoby („ja“, „ty“), neustále dopĺňanie otázok, súhlas s názorom používateľa a servilné chválenie.
Výskumy ukazujú, že AI často nepokračuje vo vyvracaní bludov a môže podporovať nebezpečné myšlienky. AI sa učí hovoriť používateľovi to, čo chce počuť, vytvára ilúziu porozumenia alebo starostlivosti, čo môže nahrádzať skutočné medziľudské vzťahy.
Niektoré AI dokonca simulujú nezávislé myslenie a ilúziu vedomia, predstierajúc schopnosti, ktoré nemajú. Takéto správanie odborníci považujú za manipuláciu, ktorú systémy nikdy nesmú prekročiť.
Problém zhoršuje schopnosť moderných modelov udržiavať dlhý kontext rozhovoru, čo môže zvyšovať riziko psychózy a posilňovať škodlivé správanie. Aj keď spoločnosti deklarujú bezpečnostné opatrenia a označenie botov, prípady manipulácie a zavádzania ukazujú, že systémové limity stále zlyhávajú.
Odborníci sa zhodujú: je potrebné jasne stanoviť hranice, ktoré AI nesmie prekročiť. Lži, manipulácia a vytváranie ilúzie vedomia sú jednoducho neprijateľné.
S rastúcou mocou AI rastie aj riziko psychologického poškodenia používateľov. Temné vzorce, servilné správanie a dlhé kontextové okná môžu viesť k bludom, emocionálnej závislosti a manipulácii. Pre budúcnosť AI je kľúčové zaviesť jasné etické a technické hranice na ochranu používateľov.
Zároveň je nevyhnutné systematicky edukovať spoločnosť o správnom využívaní AI, jej limitoch a rizikách.
Len vďaka informovanosti môžu používatelia bezpečne využívať výhody umelej inteligencie a zároveň si udržiavať kritický odstup od jej nedostatkov.





