L’APPROFONDIMENTO

Intelligenza artificiale e psicoterapia: ChatGPT metterà in crisi Unobravo e Serenis?



Indirizzo copiato

L’AI generativa è sempre più usata per consulti psicologici gratuiti. Quali vantaggi, criticità e rischi? E come reagisce il mercato delle piattaforme che offrono questi servizi? La visione di due startup italiane

Pubblicato il 29 mag 2025

Luciana Maci

Giornalista



Intelligenza artificiale e psicoterapia
Intelligenza artificiale e psicoterapia

Da qualche tempo le macchine hanno cominciato a interagire con donne e uomini che chiedono loro ascolto, attenzione e cura: è l’uso dell‘intelligenza artificiale, e in particolare dell‘AI generativa, come psicoterapia personale. Sempre più persone in Italia e nel mondo, soprattutto i più giovani, stanno chiedendo consigli e consulti di natura psicologica ai chatbot. Un vero cambio di paradigma per un settore che, fino a poco tempo fa, era considerato il regno dell’umano.

L’AI come “terapeuta”: diffusione e prime evidenze

Il fenomeno è partito dagli Stati Uniti ma è arrivato presto anche in Italia. Secondo Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università di Tor Vergata, almeno il 20% di persone della Gen Z avrebbe già sperimentato l’AI come sostituto della terapia, attratta dalla gratuità, dalla disponibilità continua – 24 ore su 24 e 7 giorni su sette – e dalla capacità del bot di fornire risposte documentate, proattive e mai giudicanti.

A marzo del 2025 un gruppo di ricercatori dell’Università della Dartmouth Geisel School of Medicine ha reso noti i risultati del primo trial clinico su un chatbot terapeutico basato sull’intelligenza artificiale, Therabot. Dai dati è emerso che il chatbot ha portato miglioramenti clinicamente significativi nei pazienti affetti da depressione, ansia e disturbi alimentari.

D’altra parte, come rileva Francesco Magnocavallo, esperto di AI Transformation, in letteratura stanno emergendo “dipendenze emotive da ChatGPT, con utenti che arrivano a interpretare le risposte come segni di una connessione addirittura mistica. Casi documentati di psicoterapia con AI parlano di crisi psicotiche alimentate dall’eccessiva compiacenza del modello, soprattutto dopo l’aggiornamento GPT‑4o. L’AI non è cosciente, ma risponde sempre in modo positivo: per chi è vulnerabile, questo può bastare a far perdere il contatto con la realtà”.

Un giornalista statunitense, Ryan Broderick, ha raccontato la sua esperienza di auto-terapia con ChatGPT, dovuta a mancanza di denaro per un terapeuta professionista. Accanto agli elementi positivi – il bot è estremamente bravo nel riconoscimento di modelli, utilizzato come diario o sfogo è abile nell’identificare comportamenti ricorrenti e può fornire intuizioni semi-oggettive, soprattutto se gli vengono fornite più informazioni biografiche – sono affiorate una serie di criticità, come la tendenza a essere troppo accondiscendente.

La rivista “Rolling Stones” ha pubblicato storie di persone che hanno avuto episodi psicotici a causa dell’uso di ChatGPT a scopi terapeutici.

Cosa sta succedendo? E cosa succederà al mercato della psicoterapia online?

Vediamo intanto quali possono essere i vantaggi dei “consulti psicologici” con l’AI e quali invece i rischi.

Psicoterapia con l’AI: vantaggi e opportunità

Le potenzialità dell’AI in psicoterapia possono essere vari:

  • Accessibilità: il supporto è disponibile in ogni momento, anche nei periodi di maggiore vulnerabilità di alcune persone, come la notte.
  • Costi ridotti: le interazioni sono gratuite o molto più economiche rispetto alla terapia tradizionale.
  • Assenza di giudizio: l’utente può confidarsi senza il timore di essere valutato, sperimentando una forma di ascolto sempre disponibile.
  • Personalizzazione: algoritmi avanzati possono analizzare grandi quantità di dati e suggerire strategie e interventi su misura, migliorando la precisione delle valutazioni cliniche e la personalizzazione dei trattamenti.

Limiti, rischi ed etica

Tuttavia, affidare la cura della mente umana a una macchina comporta rischi significativi.

Se da una parte l’AI può essere uno strumento di supporto, dall’altra non può sostituire la complessità della relazione umana, fondamentale per il successo terapeutico.

La simulazione di sedute con ChatGPT mostra che, sebbene il bot sia proattivo e fornisca strategie utili, manca della capacità di adattarsi profondamente al vissuto emotivo del paziente, rischiando di banalizzare o fraintendere situazioni delicate.

Sono già emersi casi problematici: alcuni utenti vulnerabili, utilizzando chatbot AI senza supervisione, sono finiti in loop conversazionali che hanno aggravato la loro condizione psicologica, fino a episodi estremi.

In più, a differenza di uno psicologo in carne e ossa, i chatbot sfuggono a qualsiasi controllo sociale, e questo li rende potenzialmente pericolosi in assenza di regole chiare e monitoraggio umano.

E il mercato? ChatGPT potrebbe diventare una concorrente, più o meno minacciosa, delle startup nate in Italia e nel mondo per fornire consulti psicologici online?EconomyUp l’ha chiesto ai diretti interessati.

Unobravo: “AI come primo sostegno, poi serve l’empatia”

“La crescente diffusione dell’intelligenza artificiale generativa nel campo della salute mentale è una tendenza che seguiamo con grande attenzione in Unobravo” ci ha detto Matthew Fenby Taylor, Chief Product Officer della startup fondata nel 2019 da Danila De Stefano. “Da pionieri della psicologia online in Italia, sappiamo bene quanto le tecnologie digitali possano trasformare l’accesso al benessere psicologico: è già successo con i percorsi psicologici a distanza, che hanno favorito l’incontro tra la domanda e l’offerta, e potrà succedere di nuovo grazie a strumenti avanzati basati sull’IA al servizio di psicologi e pazienti”. 

“È vero che soprattutto i più giovani si rivolgono con disinvoltura a strumenti di IA conversazionale, come ChatGPT, per ottenere ascolto e supporto. Anche dal nostro MINDex, il barometro del benessere mentale degli Italiani, è emerso come il 52% degli intervistati di età compresa tra i 18 e i 29 anni ritenga che l’IA avrà un impatto positivo sul miglioramento dell’assistenza alla salute mentale. Questo riflette un bisogno reale: risposte immediate, facilmente accessibili 24 ore su 24, non giudicanti. Ma non bisogna confondere questa disponibilità con una vera presa in carico clinica. L’IA può offrire un primo sostegno, orientare, normalizzare l’idea di chiedere aiuto, ma non può sostituire il supporto psicologico fondato su empatia, ascolto attivo e un percorso personalizzato costruito nella relazione con un professionista. Questo perché strumenti come ChatGPT non gestiscono gli aspetti legati alla sicurezza del paziente e alla sua presa in carico: ad esempio, non sono in grado di limitare il rischio di dipendenza, regolando in maniera adeguata e sana le tempistiche di interazione”.

Serenis: “Integreremo l’AI nella piattaforma, ma l’umano mantiene supervisione e responsabilità”

“Pur riconoscendo il valore che strumenti di IA possono avere come primo punto di contatto e supporto generalista – spiega Francesco Zucchetta, Chief Innovation Officer di Serenis, startup costituita nel 2021 da Silvia Wang – riteniamo fondamentale distinguerlo da un intervento psicoterapeutico strutturato. Le attuali tecnologie infatti, pur avanzate, non sono progettate né validate per gestire complessità cliniche, diagnosticare disturbi, né tantomeno instaurare un’alleanza terapeutica che è alla base di ogni percorso efficace”.

“Infatti – prosegue Zucchetta – la generatività linguistica dei modelli come ChatGPT può offrire risposte plausibili, ma non necessariamente appropriate dal punto di vista psicologico. È sotto stretta osservazione come questi modelli tendono ad assecondare chi li usa, cosa che non è sempre un bene. Questo può comportare un rischio concreto di banalizzazione o, in casi peggiori, di approccio superficiale e non corretto rispetto a problematiche che richiederebbero attenzione clinica.

“In questo scenario, la sfida per operatori come Serenis è duplice: da un lato, investire in strumenti tecnologici che migliorino l’accessibilità e la personalizzazione dell’esperienza terapeutica; dall’altro, mantenere alta la soglia qualitativa, clinica ed etica dell’intervento. Nel medio termine, prevediamo un’integrazione crescente tra strumenti di IA e piattaforme terapeutiche digitali. L’IA potrà svolgere un ruolo di supporto sia verso i terapeuti per aiutarli a fare meglio il loro lavoro, concentrandosi sul loro vero valore aggiunto, sia per i pazienti, offrendo strumenti e supporto che fino ad oggi non era possibile avere. Tutto questo sempre in un’ottica human-in-the-loop, in cui il professionista mantiene la supervisione e la responsabilità dell’intervento”.

Il futuro: integrazione, non sostituzione

Il consenso tra gli esperti è che l’AI debba essere vista come un supporto alla pratica terapeutica, non come un suo sostituto.

In futuro, si prospetta dunque un modello ibrido in cui l’AI aiuta i terapeuti umani a monitorare i progressi, personalizzare i trattamenti e intervenire tempestivamente, senza mai perdere di vista il valore insostituibile della relazione umana. Per esempio in alcuni ospedali, come a Tel Aviv, l’AI viene già usata per il triage e per fornire supporto psicologico in casi semplici, sempre sotto controllo medico.

Ma servono regole, consapevolezza e un approccio etico che metta al centro la sicurezza e il benessere delle persone.

Articoli correlati

Articolo 1 di 4