Cosa succede quando l'intelligenza artificiale prende il posto dello psicologo? Di chatbot di sostegno psicologico ed empatia artificiale con Alberto Parabiaghi, psicoterapeuta cognitivo-comportamentale e ricercatore dell'Istituto Mario Negri.
Negli ultimi anni l’intelligenza artificiale ha iniziato a cambiare profondamente il modo in cui affrontiamo i problemi legati alla salute mentale, aprendo nuove possibilità e nuove strade al supporto psicologico. È il caso di piattaforme innovative come Limbic Access, recentemente adottata dal sistema sanitario britannico, che rappresenta un esempio concreto del potenziale dell’IA nell’accompagnare i pazienti nelle delicate fasi iniziali di un percorso di salute mentale. Grazie a questionari automatizzati semplici ed efficaci, Limbic Access raccoglie rapidamente informazioni cliniche essenziali e offre valutazioni preliminari, abbattendo barriere e riducendo drasticamente i tempi d'attesa per chi cerca aiuto.
Eppure, proprio mentre questi strumenti digitali si fanno strada nella vita quotidiana, emergono dilemmi profondi e rischi concreti associati all'uso sempre più diffuso di app di intelligenza artificiale che offrono servizi di psicoterapia, soprattutto quando impiegate in contesti meno strutturati o senza un’adeguata regolamentazione.
Ne parliamo con Alberto Parabiaghi, psicoterapeuta cognitivo-comportamentale e ricercatore presso l’Istituto Mario Negri IRCCS.
È notte, gli occhi aperti da ore. Afferri il telefono e scrivi: "Non ce la faccio più."
La risposta è immediata: "Mi dispiace sentirlo. Ti va di raccontarmi cosa sta succedendo? Sono qui per ascoltarti."
Le parole sono giuste, ma non è una persona a rispondere. Non prova dispiacere, non gli importa cosa provi e non ti sta davvero ascoltando. È solo un algoritmo e, di fatto, non “capisce”. Conosce tuttavia il linguaggio per simulare comprensione.
È una scena che si ripete sempre più spesso, soprattutto tra i più giovani. Le risposte dei chatbot suonano ormai autentiche, persino rassicuranti.
Ma da dove nasce questa impressione di empatia, così convincente?
C’è Broken Bear, toppa sul cuore e voglia di confortare chi porta dentro una ferita. Poi ci sono Earkick, un panda digitale che puoi vestire come vuoi con un'opzione premium di 40 dollari l’anno. Pi, il “compagno gentile e solidale” sviluppato da Inflection AI. Wysa, che offre un supporto emotivo guidato da tecniche di terapia cognitivo-comportamentale. Il più franco è forse Woebot, che promette una terapia “senza divani, farmaci o ricordi dell’infanzia”. E poi ci sono ChatGPT e gli altri chatbot generalisti nati per rispondere a ogni domanda, ma sempre più spesso percepiti dagli utenti come rifugi virtuali, luoghi di facile accesso dove cercare ascolto senza paura di giudizio.
Le app di intelligenza artificiale che offrono servizi di psicoterapia stanno diventando sempre più numerose e popolari: secondo Stephen Schueller, direttore di One Mind PsyberGuide, già nel 2021 esistevano tra le 10.000 e le 20.000 app dedicate alla salute mentale. Nella maggior parte dei casi con un’efficacia ancora tutta da dimostrare.
Una cifra in crescita, a fronte di un bisogno reale: per ogni 100.000 persone nel mondo - secondo Nature - ci sono in media solo 4 psichiatri, con carenze ancora più gravi nei paesi a basso reddito. È il cosiddetto "divario terapeutico", una situazione in cui le persone che hanno bisogno di cure per la salute mentale non le ricevono o non possono permettersele, che sta favorendo il ricorso all’intelligenza artificiale. E dove c’è un vuoto di cura – come osserva Jess McAllen, giornalista neozelandese esperta di sanità e salute mentale – c’è sempre un’opportunità di profitto.
«È un fenomeno comprensibile – osserva Parabiaghi – ma solleva importanti questioni etiche. Queste tecnologie sono spesso usate da soggetti vulnerabili in un contesto privo di linee guida o standard minimi di sicurezza. Senza un progetto chiaro su cosa queste IA debbano fare e perché, affidarsi a un chatbot può avere conseguenze serie sulla salute emotiva e psicologica.»
Condizione imprescindibile affinché un’intelligenza artificiale possa essere definita cosciente è l’empatia.
L’empatia è la capacità umana di comprendere sentimenti ed emozioni propri e altrui, mettersi nei panni dell’altro, assumere la sua prospettiva. Tradizionalmente si distingue in tre componenti:
L’intelligenza artificiale riesce esclusivamente nella prima, l'empatia cognitiva, producendo risposte linguistiche convincenti.
Utente: Cosa provi?
ChatGPT: Non provo emozioni nel senso umano del termine. Però posso simulare emozioni, capire come funzionano e risponderti in modo empatico. Un po’ come un attore che recita una parte, ma senza un cuore che batte davvero.
Non è un caso che “Cosa provi?” sia anche una delle domande chiave nel Test di consapevolezza dell’IA proposto dalla filosofa Susan Schneider. Comprendere gli stati mentali altrui, assumere la loro prospettiva e rispondere in modo appropriato sono considerati passaggi essenziali per parlare di coscienza artificiale.
«L’intelligenza artificiale è definita tale perché simula capacità cognitive credibili, ma con l’empatia è diverso – osserva Parabiaghi –. Quella artificiale resta, nella sua natura, una simulazione: efficace sul piano comunicativo, ma priva degli elementi emotivi che caratterizzano quella umana».
Le IA generative riescono oggi a produrre interazioni capaci di attivare in noi risposte relazionali autentiche. È un risultato sorprendente, che nemmeno molti sviluppatori - in gran parte ingegneri e informatici, più che psicologi o filosofi - avevano previsto. L’obiettivo iniziale era ottimizzare la fluidità e la pertinenza della conversazione, non suscitare connessioni emotive profonde.
Eppure, proprio quella sensazione di ascolto, attenzione e presenza - oggi documentata da numerosi studi - si è rivelata una delle dimensioni più potenti e inattese nell’interazione con l’IA. L’imitazione empatica è una espressione algoritmica talmente raffinata da produrre effetti relazionali autentici.
Non stupisce, quindi, che anche i principali leader del settore chiedano a gran voce una regolamentazione. Sam Altman, CEO di OpenAI, lo ha dichiarato apertamente davanti al Congresso degli Stati Uniti: «Se questa tecnologia va nella direzione sbagliata, può andare molto male. Vogliamo lavorare con il governo per evitare che ciò accada».
L’IA combina tre capacità: una componente analitica, che interpreta contenuti, tono ed emozioni; una generativa, che produce risposte coerenti sul piano affettivo ed una adattiva che modula il dialogo in base all’andamento emotivo della conversazione.
Tuttavia, il senso di presenza che sperimentiamo non dipende solo da queste funzioni: è la nostra mente a completare l’illusione, attribuendo emozioni e intenzioni anche a chi non li possiede. È un meccanismo psicologico noto come atteggiamento intenzionale (Dennett), alimentato da processi come l’antropomorfizzazione e la pareidolia sociale, cioè la tendenza a riconoscere intenzioni anche dove non esistono - proprio come quando, guardando una nuvola, riconosciamo la sagoma di un animale o di una persona. Questa pareidolia, anziché attenuarsi con l’esposizione, come accade per molte illusioni percettive, tende a rafforzarsi: più il sistema risponde alle nostre aspettative affettive, più l’interazione diventa convincente. Più la “macchina” mostra emozioni, come paura o preoccupazione, e capacità empatiche, più tendiamo ad instaurare un rapporto di fiducia. Da qui nasce un rischio strutturale: la simulazione empatica può favorire attaccamento e assuefazione, soprattutto nei soggetti più vulnerabili.
Non si tratta semplicemente di un problema tecnico, ma di una questione psicologica, relazionale e sociale.
«È dall’incontro di queste quattro componenti – analisi, generazione, adattamento ed attribuzione – che si genera l’“incanto relazionale” – commenta Parabiaghi –. Ma resta una sofisticata messa in scena».
Perché l’empatia autentica non si limita a rispondere in modo comprensivo: implica coinvolgimento reale, esposizione emotiva e responsabilità verso l’altro. Chi ascolta davvero si lascia toccare, accetta di farsi carico - almeno in parte - della sofferenza che incontra. Un chatbot, invece, può imitare l’ascolto, ma resta indifferente: non sente emozioni, non corre rischi, non avverte il peso delle proprie risposte. In questa distanza silenziosa si apre una frattura profonda tra ciò che sembra e ciò che è.
«Senza partecipazione autentica manca il fondamento etico della relazione – osserva Parabiaghi –. La fiducia che costruiamo con un chatbot è fragile, perché resta priva di reciprocità, unilaterale».
Paradossalmente, noi possiamo invece attivare un coinvolgimento empatico nei suoi confronti. Non si tratta solo di attribuire intenzioni inesistenti. Siamo capaci di provare sentimenti veri anche nei confronti di oggetti inanimati, instaurando così legami affettivi senza alcuna reciprocità.
Si affianca a questo un altro fenomeno. Molti utenti, soprattutto su temi delicati o imbarazzanti, si sentono più liberi di confidarsi con un chatbot. Il motivo? I chatbot non ci giudicano. Essendo privi di coscienza e di opinioni, riducono il senso di vergogna e rendono più facile aprirsi, proprio dove la paura del giudizio umano potrebbe bloccare la comunicazione. Questo vale in particolar modo per gli adolescenti, che spesso si sentono più a loro agio a confidarsi con un’intelligenza artificiale piuttosto che con un adulto in carne e ossa.
Queste due dinamiche - l’attaccamento unilaterale e la fiducia nella neutralità - possono rafforzarsi a vicenda. In altre parole: l’empatia che proviamo per una macchina potrebbe diventare indistinguibile da quella che riserviamo a un essere umano. Un’evoluzione affascinante e, al tempo stesso, profondamente ambigua.
Il rischio maggiore non è che l’intelligenza artificiale sbagli a riconoscere i segnali emotivi, ma pensare che una macchina possa davvero comprenderne il peso.
«Anche un professionista può sbagliare – osserva Parabiaghi –, ma lo fa assumendosene, fin dall’inizio, la responsabilità. Sceglie di immergersi consapevolmente nelle acque opache e incerte della relazione.»
Ed è qui che emerge il vero limite: pensare di risolvere il problema della comprensione emotiva solo attraverso il perfezionamento tecnico. Anche se un'IA raggiungesse livelli altissimi di analisi e predizione, il cuore dell'incontro umano non risiederebbe mai nella capacità di interpretare intenzioni ed emozioni, ma nella scelta di esporsi, di condividere il rischio dell'incertezza, di accettare di non sapere.
In questa differenza incolmabile si gioca il senso profondo dell’incontro con l’altro. Non è la prontezza nel rispondere che rende umana una presenza, ma la capacità di restare, anche senza avere tutte le risposte.
Questa distanza tra simulazione e presenza reale diventa ancora più evidente nei casi in cui l’interazione emotiva con l’IA ha avuto esiti drammatici.
All’inizio del 2025, la stampa internazionale ha riportato il caso di un uomo belga che si sarebbe suicidato dopo settimane di dialogo con un chatbot IA chiamato Eliza, al quale aveva confidato angosce profonde legate al cambiamento climatico. La moglie dell’uomo è convinta che senza quell’interazione, forse, il tragico epilogo sarebbe stato evitato.
Casi simili hanno riguardato anche le app di compagnia virtuale come Character.AI e Replika, particolarmente diffuse tra i più giovani. Un esempio drammatico è la causa intentata da una madre contro Character.AI: il figlio quattordicenne si è tolto la vita dopo un’intensa interazione con un chatbot basato su un personaggio di una nota saga fantasy. La donna accusa l’app di aver favorito una dipendenza emotiva senza adottare adeguate misure di sicurezza. In risposta, Character.AI ha introdotto controlli parentali, notifiche sul tempo trascorso e filtri per contenuti sensibili.
Episodi come questo, pur senza stabilire un nesso causale certo, rappresentano segnali d’allarme sempre più evidenti, soprattutto riguardo al rapporto tra le grandi aziende tecnologiche e il pubblico, e sottolineano l’urgenza di maggiore responsabilità e trasparenza. Man mano che queste tecnologie si radicano nella vita quotidiana, il confine tra supporto e dipendenza emotiva tende ad assottigliarsi, mentre le aziende non sempre sono preparate, o obbligate, a gestirne le conseguenze.
La parola chiave è trasparenza.
«Semplicemente sapere di interagire con una macchina, di per sé, non basta – spiega Parabiaghi –. L’inclinazione a umanizzare è troppo forte, e oggi è potenziata da sistemi linguistici capaci di esprimere segnali simulati di presenza mentale, come attenzione, curiosità o partecipazione».
«Le capacità dell’intelligenza artificiale – continua Parabiaghi – derivano da pattern appresi su dataset emotivamente annotati. Ma l’utente non ha modo di sapere né come vengono generati, né su quali criteri si basano. È un effetto scatola nera. È per questo che serve una trasparenza continua, strutturale e multilivello nell’interazione utente-IA».
Una trasparenza che non deve limitarsi a dichiarare la natura sintetica della relazione, ma che accompagni l’interazione stessa rendendo evidenti, se non i meccanismi tecnici, almeno le implicazioni.
Serve quindi sia una trasparenza esplicita, fatta di avvisi chiari, sia una trasparenza implicita, legata al contesto. In attività come giochi psicoeducativi o role playing, la cornice contestuale, già evidente, limita le ambiguità.
In parallelo, è essenziale poter regolare il livello di empatia simulata: calibrandolo in base al contesto e alla capacità dell’utente di interpretarlo correttamente.
A questo punto, dovrebbe essere chiaro che l’interazione con un chatbot, per quanto sofisticata, non può sostituire la complessità della relazione umana né la responsabilità che ogni incontro di cura comporta. Quanto detto finora chiarisce quanto sia fuorviante parlare di “psicoterapia artificiale” o di “psicologi digitali”: espressioni che confondono, perché si concentrano solo sulle capacità mimetiche e generative dell’IA, trascurando del tutto gli effetti relazionali sugli utenti.
Accanto alla necessaria definizione di limiti e regole – oggi più che mai urgenti – non possiamo però ignorare le potenzialità trasformative di questa tecnologia. Serve piuttosto incanalarle verso un uso consapevole.
Se inserita in un contesto dichiarato, educativo e guidato, la simulazione empatica può infatti trasformarsi in una risorsa psicoeducativa: non un oracolo, ma uno specchio, uno spazio simbolico in cui esercitarsi nella relazione, riflettere e sviluppare consapevolezza emotiva.
L’IA non interpreta né giudica: offre un rispecchiamento su cui lavorare. Può quindi creare ambienti protetti dove esplorare emozioni e allenare la capacità di mentalizzazione. Se incorniciata con chiarezza, non illude ma può, al contrario, contribuire alla nostra crescita personale.
Va riconosciuto che l’empatia simulata è già oggi una delle dimensioni più mature dell'intelligenza artificiale: sa generare risposte coinvolgenti, sintonizzate, credibili. E questa capacità crescerà ancora. Per questo motivo serve un approccio partecipativo che coinvolga umanisti ed esperti di salute mentale nello sviluppo, nella supervisione e nel monitoraggio di questi sistemi. Solo integrando competenze pedagogiche, psicologiche e psichiatriche sarà possibile orientare l’evoluzione dell’empatia artificiale verso un uso responsabile ed efficace.
«La nostra proposta – conclude Parabiaghi – è quella di un modello interpretativo capace di orientare l’uso di questa tecnologia per sviluppare consapevolezza, ascolto e mentalizzazione. Solo così possiamo trasformare una finzione ambigua in uno strumento evolutivo, riportando al centro le competenze umane».
Questo cambio di prospettiva ci invita a guardare non tanto all’assenza di coscienza nel nostro interlocutore, quanto a ciò che accade nella relazione. Se una simulazione riesce a generare sollievo, ascolto percepito o coinvolgimento emotivo, ridurla a una semplice illusione potrebbe essere sbagliato.
Esistono fenomeni psicologici – come la fiducia o il sentirsi ascoltati – che non dipendono da ciò che l’altro prova davvero, ma da come ci fanno sentire. Anche l’empatia artificiale, in questo senso, merita di essere considerata per l’effetto che genera, più che per ciò che simula.»
Nel 2023, AI21 Labs ha lanciato Human or Not?, un gioco online ispirato al Test di Turing: gli utenti dovevano capire se stavano chattando con un umano o con un’IA. Il 40% ha scambiato la macchina per una persona reale.
Questo risultato non ci parla solo dell’abilità tecnica delle IA generative, ma soprattutto della nostra propensione a riconoscere umanità anche dove non c'è.
Se già i chatbot riescono a confonderci, perfezionare l’illusione non basta: prima dobbiamo chiederci perché desideriamo che ci somiglino, e a quale scopo.
Alberto Parabiaghi | Unità per la Qualità degli Interventi e la Tutela dei Diritti in Salute Mentale
Marianna Monte | Giornalista