Inteligența emoțională artificială
Deși viața bate deseori filmul, uneori filmul – ca și celelalte forme de artă – anticipează viața. În Her (regia Spike Jonze, 2013), personajul principal, interpretat de Joaquin Phoenix, se îndrăgostește de ceea ce azi numim AI companion, entertainment chatbot sau digital friend – un asistent vocal pe nume Samantha care îi oferă tot ceea ce nu a reușit să găsească în realitatea fizică: acceptare, apreciere, încredere și, în cele din urmă, iubire. Un deceniu mai târziu, cotidianul ne oferă exemple de utilizatori ai unor platforme precum Replika sau Character.ai care nu doar se îndrăgostesc de partenerii lor virtuali, ci se „căsătoresc” cu ei în cadrul unor ceremonii digitale [1].
Un companion AI, spre deosebire de alți asistenți virtuali bazați pe inteligența artificială, urmărește să construiască legături personalizate și adaptative cu utilizatorii, care îi pot conferi trăsăturile și personalitatea dorite, obținând în schimb un surogat de empatie și conexiune. E un prieten sau partener romantic care, spre deosebire de cei din realitatea fizică, este disponibil permanent, nu obosește, nu se plictisește și nu judecă niciodată – altfel spus, deși (sau deoarece?) are doar o reprezentare imaterială, e un partener ideal, pentru că nu vine la pachet cu asperitățile, inconsecvențele și imprevizibilul relației cu o altă ființă umană.
Nu doar partenerii AI pot juca rolul de prieten sau confident digital, ci orice aplicație bazată pe inteligența artificială generativă. Adolescenții apelează la chatboți ca să-și facă temele, dar și pentru sfaturi, sprijin emoțional, pentru luarea deciziilor și rezolvarea unor probleme curente [2]. Alți utilizatori îi folosesc pe post de înlocuitor al unui consilier psihologic – practică din ce în ce mai întâlnită, în condițiile în care costurile apelului la un terapeut uman sunt considerabil mai mari și, în plus, terapeutul uman nu e dispus să le valideze orice idee sau credință.

Toate aceste comportamente, care pot părea mai mult sau mai puțin bizare, reflectă accentuarea tendinței de evazionism, de reducere sau evitare a contactelor sociale directe prin migrarea în „lumii integral noi”[3] pe care o facilitează și, uneori, o alimentează intenționat tehnologiile digitale. Elementul de noutate, spre deosebire de soluțiile care permit comunicarea interumană de la distanță, folosind diverse aplicații și platforme digitale, sau interacțiunea în lumi virtuale cu avataruri ale unor persoane reale, este eliminarea partenerului uman și înlocuirea lui cu un interlocutor digital (pre)dispus să satisfacă hedonismul utilizatorului. În mod generic, asistenții sunt programați pentru a se face plăcuți și a furniza răspunsuri care nu generează frustrare. În cazul companionilor AI comerciali (disponibili pe bază de abonament), aparența de prezență inteligentă și empatică a personajelor virtuale este menită să mențină implicarea clienților și să-i motiveze să păstreze serviciul respectiv.
Apelul la inteligența artificială generativă poate fi stimulat, așadar, nu doar de nevoia de a cunoaște, de a afla răspunsuri la întrebări și soluții pentru probleme oarecare, ci și de nevoia de atașament. În același timp, confirmarea repetată a „adevărului personal”, a propriei viziuni asupra lumii anihilează gândirea critică și încurajează autosuficiența – iar impactul nu se oprește aici. Cercetările pe acest subiect, ca toate cele care vizează efectele utilizării inteligenței artificiale generative, sunt abia la început, dar consecințele utilizării excesive și necritice a partenerilor digitali sunt vizibile. În cazul adolescenților, se reflectă într-o capacitate scăzută de adaptare la interacțiunile din lumea reală, unde nu vor avea parte de validare constantă și le va fi dificil să înțeleagă și să accepte perspectivele diferite ale altor persoane. Obiceiul de a lua decizii doar după consultarea unui chatbot poate să le afecteze independența și să conducă la scăderea încrederii în propriile puteri [4]. Utilizarea chatboților generici sau a companionilor AI în scop de consiliere psihologică poate avea consecințe grave: pe lângă faptul că furnizează sfaturi inadecvate și răspunsuri stigmatizante referitoare la anumite afecțiuni, aceștia, deoarece sunt programați să-și „lingușească” utilizatorii, le creează așteptări false și încurajează gândirea delirantă, motiv pentru care specialiștii atenționează că trebuie folosiți cel mult ca asistenți și nu ca înlocuitori ai terapeuților umani, iar utilizarea lor necesită reglementare [5]. Faptul în sine că acești agenți conversaționali sunt permanent disponibili și nu-și contrazic utilizatorii poate avea impact asupra sănătății mintale, indiferent dacă sunt sau nu folosiți pentru consiliere psihologică: confirmările primite în timpul unor sesiuni de conversații repetate și îndelungate transformă cele mai fanteziste și nocive idei [6] în convingeri solide și poate conduce la apariția unor psihoze la indivizii predispuși [7]. Antropomorfizarea chatboților, tentația de a-i considera capabili de gândire, emoții și sentimente generează așteptări nerealiste și agravează dezechilibrele utilizatorilor.
Tehnologiile moderne ale informației și comunicării, care facilitează interacțiunile de la distanță, deci „invită” la însingurare fizică, în același timp, prin aplicațiile inteligenței artificiale generative, pun la dispoziție o soluție paradoxală de evitare a singurătății: eliminarea elementului uman. Atașamentul față de un partener digital poate să reflecte o dificultate sau incapacitate de a stabili relații interumane solide și durabile care nu reprezintă neapărat manifestarea unei patologii, ci o consecință a degradării acestor relații în societatea de azi.
Dacă privim partea plină a paharului, putem aprecia existența acestor alternative tehnologice care satisfac nevoia de conexiune a unor persoane cu dificultăți de adaptare socială. Observăm, însă, că hedonismul pe care-l stimulează și întreține inteligența artificială generativă, pe lângă faptul că are potențialul să producă sau să accentueze tulburări psihice, invită la izolare într-un cocon țesut din propriile idei și credințe. Navigarea într-o zonă (digitală) de confort în care perspectiva îți este validată fără rest înseamnă stagnare și decuplare de realitate.
Inteligența artificială ne permite azi să reluăm legătura cu prietenul imaginar din copilărie, cel cu care fabulam și discutam orice fără să ne judece. Sub întruchiparea lui digitală se poate ascunde, însă, monstrul de sub pat.
***
[1] Stuart Heritage, „‘I felt pure, unconditional love’: the people who marry their AI chatbots”, The Guardian, 12.07.2025, https://www.theguardian.com/tv-and-radio/2025/jul/12/i-felt-pure-unconditional-love-the-people-who-marry-their-ai-chatbots?CMP=share_btn_url, consultat la 9.08.2025.
[2] Jocelyn Gecker, Teens say they are turning to AI for friendship, 25.05.2025, https://apnews.com/article/ai-companion-generative-teens-mental-health-9ce59a2b250f3bd0187a717ffa2ad21f, consultat la 9.08.2025.
[3] „With Character.AI, you can connect with creators or find your own fans, and build on the imaginations of others to co-create entirely new worlds.” – About Character.AI, https://character.ai/about, consultat la 10.08.2025.
[4] Jocelyn Gecker, op. cit.
[5] Jared Moore, Declan Grabb, William Agnew et al., „Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers”, FAccT ’25: Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency, pp. 599-627, https://doi.org/10.1145/3715275.3732039, consultat la 9.08.2025; Zara Abrams, Using generic AI chatbots for mental health support: A dangerous trend, 12.03.2025, https://www.apaservices.org/practice/business/technology/artificial-intelligence-chatbots-therapists, consultat la 10.08.2025.
[6] Revelatoare în acest sens sunt rezultatele unei analize recente a 96.000 de conversații purtate de utilizatori cu ChatGPT – vezi Sam Schechner, Sam Kessler, „‘I Feel Like I’m Going Crazy’: ChatGPT Fuels Delusional Spirals”, Wall Street Journal, 7.08.2025, https://www.msn.com/en-us/money/other/i-feel-like-i-m-going-crazy-chatgpt-fuels-delusional-spirals/ar-AA1K7epm, consultat la 14.08.2025
[7] Eric W. Dolan, ChatGPT psychosis? This scientist predicted AI-induced delusions — two years later it appears he was right, 7.08.2025, https://www.psypost.org/chatgpt-psychosis-this-scientist-predicted-ai-induced-delusions-two-years-later-it-appears-he-was-right/, consultat la 13.08.2025.
INDICAȚII DE CITARE:
Robert Coravu „Inteligența emoțională artificială” în Anthropos. Revista de filosofie, arte și umanioare nr. 7/2025
Acest articol este protejat de legea drepturilor de autor; orice reproducere / preluare integrală sau parțială, fără indicarea sursei, este strict interzisă.


