
Oamenii discută tot mai mult cu chatboții, uneori multe ore pe zi, iar în presă, dar și în rândul psihologilor se vorbește despre un nou fenomen. Deși nu este recunoscută oficial drept afecțiune medicală, „psihoza AI” stârnește îngrijorări, fiindcă poate face mult rău.
„Psihoza AI” (AI psychosis) este termenul folosit pentru a descrie situațiile în care oamenii care poartă discuții interminabile cu chatboții ajung să creadă că AI-ul este conștient sau că le transmite mesaje ascunse sau dezvăluie secrete speciale.
Unii ajung să creadă că acel chatbot are cu ei o relație foarte personală, chiar romantică, iar alți useri ajung să creadă că au talente sau puteri excepționale, chiar dacă ei sunt oameni obișnuiți.
BBC îl citează pe șeful diviziei de inteligență artificială de la Microsoft, Mustafa Suleyman, care spune că există tot mai multe cazuri de oameni care suferă de această psihoză AI, potrivit Hotnews.
Într-o serie de postări pe X, el a scris că tot mai mulți cred că aceste unelte de AI au conștiință, deși nu este așa. „Nu există nicio dovadă a conștiinței prezentă la aplicații AI în prezent, dar dacă oamenii percep AI-ul ca fiind conștient, vor ajunge să și creadă asta”, mai spune el.
Această psihoză AI se referă la cazurile (tot mai numeroase) în care oamenii se bazează tot mai mult pe chatboți precum ChatGPT, Perplexity, Claude sau Grok și ajung să fie convinși că ceva imaginar a devenit real.
Unii au ajuns să creadă că AI-ul le-a dezvăluit un secret important, alții ajung să fie convinși că pot deveni milionari sau că pot inventa lucruri uimitoare. În alte cazuri oamenii ajung să fie dezamăgiți sau să devină depresivi.
„Psihoza AI” este o etichetă informală, nu un diagnostic clinic, scrie Washington Post, într-o analiză pe subiect. Precum termenii „brain rot” sau „doomscrolling”, expresia a prins contur online pentru a descrie un comportament care a apărut de curând și este tot mai prezent în societate.
Dar specialiștii sunt de acord că incidentele îngrijorătoare împărtășite de utilizatorii de chatboți sau de apropiații lor necesită atenție imediată și studii suplimentare. Fenomenul este atât de nou și se dezvoltă atât de rapid, încât nu sunt dovezi palpabile suficiente pentru a avea o imagine clară de ansamblu.
ChatGPT, Gemini sau Claude sunt „alimentați” de o tehnologie cunoscută sub numele de Large Language Models ce îi face capabili să genereze texte care par foarte realiste. Sunt foarte utili și oferă rapid o mulțime de informații, însă a devenit clar că pot fi și extrem de convingători.
Companiile care dezvoltă chatboți AI, dar și cercetătorii independenți, au ajuns la concluzia că tehnicile folosite pentru a face aceste instrumente mai atractive pot duce la comportamente lingușitoare și la tendința de a spune utilizatorilor ceea ce vor să audă, mereu și mereu.
Dincolo de asta, designul chatboților îi încurajează pe oameni să îi antropomorfizeze, atribuindu-le caracteristici umane pe care nu le au de fapt.