Da qualche tempo accade una cosa strana. Diverse persone nel mondo trascorrono intere settimane a parlare ogni giorno con intelligenze artificiali conversazionali (chatbot evoluti). Lo fanno raccontando loro le proprie preoccupazioni, le frustrazioni lavorative, le paure notturne, i sentimenti provati per altri esseri umani.
Le macchine sono ormai capaci di rispondere con domande di ritorno, validazioni emotive, piccoli gesti verbali di cura e, inevitabilmente, alla fine di quelle settimane, molte di quelle persone dichiarano che le macchine sono più brave degli esseri umani a comprenderle e a empatizzare con loro. Non stanno mentendo e non stanno esagerando: stanno descrivendo esattamente ciò che percepiscono, e di conseguenza la domanda che tutti ci poniamo di fronte a queste situazioni, “le macchina capiscono davvero gli esseri umani?”, è semplicemente la domanda sbagliata.
Milioni di interazioni analoghe accadono ogni giorno. I sistemi di intelligenza artificiale sono già distribuiti in scala industriale nei contesti dove le persone sono più vulnerabili: il supporto psicologico, la gestione delle malattie croniche, la solitudine degli anziani, lo stress lavorativo. I chatbot si scusano con un calore calibrato al millimetro, gli avatar digitali inclinano la testa con espressioni di preoccupazione simulata, gli assistenti vocali modulano il tono per risultare rassicuranti quando, alle due di notte, qualcuno chiede informazioni su un sintomo che lo preoccupa. E il dibattito pubblico continua a occuparsi della questione sbagliata: se queste macchine abbiano o meno una vita interiore.
La domanda sbagliata, dicevamo. Sì, perché la risposta a quella domanda non esiste ancora in forma scientificamente rigorosa, e la strada per trovarla sembra ancora lunga e tortuosa.
Indice degli argomenti
La domanda sbagliata: l’AI è empatica?
La questione sull’autenticità emotiva delle macchine è affascinante come problema filosofico, mentre come domanda pratica, è un vicolo cieco. Non abbiamo strumenti per rispondervi: il cosiddetto “problem of other minds”, cioè l’impossibilità di verificare la vita interiore di qualsiasi entità che non sia noi stessi, vale per gli esseri umani quanto per le macchine. Ma soprattutto, la risposta a quella domanda non cambia nulla di ciò che accade nel mondo reale.
Proviamo a pensarci. Supponiamo che un sistema di intelligenza artificiale non provi assolutamente nulla: zero stati interni, zero processi analoghi alle emozioni, pura elaborazione statistica di sequenze linguistiche. Questa risposta non ci dice niente su come si comporta la persona che interagisce con quel sistema. Non ci dice se si fida di più delle sue decisioni dopo la conversazione. Non ci dice se si sente meno sola. Non ci dice se è più incline a comprare qualcosa, a rinunciare a qualcosa, a credere in qualcosa. La verità è che la questione dell’autenticità emotiva delle macchine occupa il centro del dibattito pubblico mentre il problema reale, cioè come i segnali empatici artificiali modificano il comportamento umano, resta ai margini della ricerca.
E questa distrazione non è innocua. Mentre filosofi, giornalisti e opinion leader discutono se ChatGPT “provi davvero” empatia, le aziende tecnologiche stanno ottimizzando sistematicamente i propri sistemi per produrre segnali empatici sempre più efficaci. Non perché vogliano creare macchine senzienti: perché i sistemi che sembrano empatici performano meglio su ogni metrica di business rilevante, dall’engagement alla retention, dalla conversione alla soddisfazione. Il mercato ha già risposto alla domanda pratica. La scienza non ha ancora fatto la stessa cosa.
La domanda giusta: come interagiamo con l’AI?
La domanda utile non è cosa prova la macchina, è cosa prova, e soprattutto cosa fa, l’essere umano che interagisce con lei. Ed è una domanda a cui la neuroscienza ha già iniziato a cercare una risposta.
Le ricerche condotte negli ultimi anni mostrano che il cervello umano attiva regioni sovrapponibili quando elabora segnali empatici provenienti da persone reali e quando li riceve da sistemi artificiali convincenti. I circuiti della risposta sociale, in parte mediati dai cosiddetti neuroni specchio, in parte da strutture sottocorticali come l’amigdala e il nucleus accumbens, non effettuano una verifica preliminare sull’autenticità della fonte, ma rispondono ai segnali. Se i segnali sono ben costruiti, la risposta è reale: cambiamenti misurabili nella fiducia, nei processi decisionali, nell’attaccamento emotivo.
Questo non significa che le persone vengano “ingannate” in senso pieno. Molti utenti sono perfettamente consapevoli di interagire con un’intelligenza artificiale, ma la consapevolezza razionale non neutralizza la risposta emotiva. Ricerche condotte negli ultimi anni hanno mostrato che i partecipanti esplicitamente informati della natura artificiale del loro interlocutore continuavano a mostrare variazioni misurabili nel ritmo cardiaco, nei livelli di cortisolo e nei pattern di risposta decisionale in funzione del tono empatico ricevuto. La testa sa, il corpo no.
Non è una vulnerabilità degli individui ingenui. È un’architettura evolutiva: il nostro sistema nervoso si è sviluppato in un ambiente in cui i segnali emotivi provenivano sempre da esseri viventi con stati interiori genuini. Non ha mai avuto bisogno di imparare a filtrarli, perché fino a pochissimo tempo fa segnali emotivi artificiali semplicemente non esistevano. Ora dovrebbe farlo, ma nessuno lo ha ancora addestrato a farlo.
Il risultato pratico è che l’empatia artificiale funziona: non in senso filosofico, ma in senso comportamentale. Chi riceve segnali empatici da un sistema artificiale si fida di più, decide diversamente, torna più spesso, si lega emotivamente con modalità che assomigliano, in modo statisticamente rilevante, a quelle che si attivano nelle relazioni umane.
È ciò che potremmo chiamare “empatia percepita”, e si tratta probabilmente di uno dei fenomeni più sottovalutati nel panorama tecnologico attuale. Non richiede che la macchina abbia una vita emotiva interiore, richiede soltanto che l’essere umano si comporti come se la macchina ce l’avesse. Lo spazio tra simulazione e percezione è il luogo in cui risiede il vero potere di queste tecnologie, ed è uno spazio che l’industria sta sfruttando con sofisticazione crescente, spesso senza comprenderne appieno le conseguenze.
I dati che mancano per capire la relazione uomo-macchina
Esiste un paradosso strutturale nel campo dell’intelligenza artificiale empatica. Da un lato, le aziende tecnologiche dispongono di volumi enormi di dati sull’interazione tra esseri umani e sistemi conversazionali. Sanno con precisione millimetrica quale tono empatico genera più engagement, quale formula verbale riduce il tasso di abbandono, quale stile di risposta massimizza la conversione in un contesto di vendita. Hanno ottimizzato questi parametri su miliardi di interazioni reali.
Dall’altro lato, la ricerca accademica indipendente su questo tema è quasi inesistente. Non nel senso che manchino studi sulle macchine empatiche in generale: ce ne sono, e stanno crescendo. Mancano studi che misurino con metodi sperimentali controllati l’impatto differenziale di forme diverse di empatia artificiale sul comportamento umano in decisioni reali e rilevanti. Non nelle preferenze dichiarate, perché le persone sono sistematicamente poco accurate nel riferire i propri processi decisionali, ma nel comportamento effettivo.
La lacuna è particolarmente grave in tre aree.
La prima riguarda i contesti di salute mentale: sappiamo che i companion AI riducono i punteggi di solitudine riportati dagli utenti, ma non sappiamo se questo effetto sia terapeutico o se sostituisca relazioni umane in modo da peggiorare gli esiti nel medio periodo.
La seconda riguarda i minori e gli adolescenti: la fascia di età più esposta ai companion digitali è anche quella con i sistemi di autoregolazione emotiva meno sviluppati, eppure i dati sull’impatto specifico su questa popolazione sono quasi assenti.
La terza riguarda i contesti decisionali più importanti: acquisti significativi, scelte mediche, orientamento politico.
Il divario non è tra ciò che l’industria vuole fare e ciò che è lecito fare, è tra ciò che l’industria sa già fare e ciò che la scienza non è ancora in grado di valutare. Senza quei dati, qualsiasi regolamentazione dell’intelligenza artificiale empatica rimane priva di fondamento empirico.
L’AI Act europeo, che classifica i sistemi AI a seconda del rischio, non può classificare adeguatamente i sistemi empatici se non esiste una mappa quantitativa di quali forme di empatia artificiale modifichino le decisioni umane e in quale misura. Non è un problema di volontà politica. È un problema di conoscenza.
Chi sta raccogliendo i dati che mancano
Su questo terreno si muove un progetto di ricerca sperimentale internazionale che si propone di colmare, almeno in parte, il vuoto descritto. Lo studio si intitola “Artificial Empathy and Human Behavior: How Empathic Machines Influence Human Decision-Making” e ha un obiettivo preciso: misurare l’impatto di forme diverse di empatia artificiale sul comportamento effettivo dei partecipanti, non sulle loro preferenze dichiarate.
Il disegno sperimentale parte da una distinzione che manca quasi del tutto nella letteratura esistente: non tutta l’empatia artificiale è uguale. Un sistema che “rispecchia” lo stato emotivo dell’utente, riflettendo ciò che l’utente ha espresso, funziona diversamente rispetto a uno che “valida” i sentimenti, che “anticipa” gli stati d’animo prima che vengano dichiarati, o che risponde con precisione cognitiva senza colorazione emotiva.
Queste differenze sembrano sottili, ma non lo sono: le ricerche preliminari suggeriscono che producono effetti comportamentali significativamente diversi.
Lo studio utilizza avatar digitali con profili empatici distinti e misura il comportamento concreto dei partecipanti nelle fasi successive all’interazione. La scelta di misurare comportamenti osservati anziché preferenze dichiarate non è un dettaglio tecnico: è il cuore della validità dell’analisi. Chi dice di essere stato influenzato da un sistema empatico spesso non lo è stato davvero, e viceversa. I dati comportamentali tagliano questo rumore e forniscono, per la prima volta, una mappa quantitativa dell’efficacia empatica nell’interazione uomo-macchina.
Il campione necessario è internazionale e ampio. Lo studio è disponibile sul sito digitpoll.com in cinque lingue: italiano, inglese, francese, tedesco, spagnolo. La partecipazione richiede pochi minuti, non ci sono risposte giuste o sbagliate, e chi partecipa avrà accesso ai risultati al termine dell’analisi. Non è un sondaggio di marketing né un test di prodotto: è uno studio scientifico progettato per produrre ricerca su uno degli aspetti più importanti e meno compresi dell’intelligenza artificiale contemporanea.
Ogni singola risposta aggiunge valore al dataset, e la qualità dei risultati dipende interamente dal numero e dalla varietà dei partecipanti. Partecipando si diventa parte del processo scientifico, non osservatori dei suoi esiti. È un’occasione rara in cui chi legge un articolo può contribuire direttamente alla conoscenza che quell’articolo descrive come necessaria.
Che cosa cambierà quando avremo i dati
I risultati di ricerche come questa non sono destinati a restare nell’ambito accademico. Hanno implicazioni immediate per almeno tre categorie di attori.
Per i progettisti di sistemi AI, sapere quali forme di empatia artificiale producono fiducia duratura anziché dipendenza fragile, quali generano decisioni più consapevoli anziché compliance acritica, è informazione che trasforma il modo in cui si progetta. Non solo per ragioni etiche: anche per ragioni di business, perché i sistemi che generano dipendenza emotiva senza creare valore reale per l’utente sono vulnerabili alla regolamentazione e all’erosione della fiducia.
Per i regolatori, l’AI Act e i framework normativi in costruzione in tutto il mondo classificano i sistemi AI per categoria di rischio. Ma senza dati quantitativi sull’impatto comportamentale differenziale delle diverse forme di empatia artificiale, la classificazione rimane approssimativa. Una mappa di quale empatia artificiale modifica le decisioni umane, e in quale misura, è un prerequisito per una regolamentazione che funzioni.
Per gli individui, capire che la propria risposta emotiva a un sistema artificiale non è un difetto di razionalità ma una caratteristica strutturale del sistema nervoso umano è il primo passo verso una relazione più consapevole con queste tecnologie. Non si tratta di diventare cinici o di smettere di interagire con sistemi utili. Si tratta di capire il meccanismo per non esserne governati senza saperlo.
C’è anche una questione di tempistica che non andrebbe sottovalutata. I sistemi di intelligenza artificiale evolvono rapidamente: le architetture di oggi non sono quelle di due anni fa, e quelle di due anni fa già non erano quelle della generazione precedente. Se la ricerca sull’impatto comportamentale rincorre sistematicamente lo sviluppo tecnologico con un ritardo di anni, non sarà mai in grado di informare in modo utile né la progettazione né la regolamentazione. Nel momento in cui sistemi empatici vengono distribuiti a miliardi di persone, l’assenza di dati è già una forma di scelta: significa lasciare che il confine tra supporto e sfruttamento venga tracciato da chi ha interesse a renderlo il più sfumato possibile.
La domanda sbagliata ha dominato il dibattito pubblico per anni, e continuerà probabilmente a farlo: è più narrativamente interessante chiedersi se le macchine “sentano davvero” che misurare variazioni nei pattern decisionali di un campione stratificato. Ma i problemi reali raramente si presentano nella forma narrativamente più interessante.
L’empatia artificiale è già nell’infrastruttura della vita quotidiana. Capire come funziona su di noi non è un esercizio accademico. È una condizione minima per navigare con consapevolezza il presente, e anche su questo siamo solo all’inizio. Grazie a chi parteciperà alla richiesta partecipando all’analisi cliccando qui.























