L’intelligenza artificiale sta ridefinendo il modo in cui viviamo, comunichiamo, lavoriamo. Ma quando si entra nel campo dell’azione umanitaria e sociale, le domande diventano più profonde: non si tratta solo di ciò che la tecnologia è in grado di fare, ma di ciò che è giusto fare. In questi contesti, dove la vulnerabilità è elevata e ogni scelta ha un impatto diretto sulla vita delle persone, l’adozione dell’AI richiede (più che mai) prudenza, ascolto e responsabilità.
È in questa prospettiva che si inserisce l’esperienza di Save the Children, che ha iniziato a introdurre strumenti digitali avanzati, tra cui l’intelligenza artificiale, per affrontare bisogni complessi nei contesti più fragili. Un percorso guidato non dall’entusiasmo per l’innovazione fine a sé stessa, ma da una logica di co-progettazione attenta, in cui la tecnologia entra solo dopo aver compreso a fondo il problema, e dove sicurezza e impatto sociale precedono ogni ambizione di scala.
A raccontare questo approccio è Michela Taccheri, Head of Innovation, in un confronto con i ricercatori dell’Osservatorio Startup Thinking del Politecnico di Milano, di cui Save the Children è partner da qualche anno.
Indice degli argomenti
CLOSER: AI nei confini della mediazione umanitaria
Il progetto CLOSER nasce dall’esperienza diretta degli operatori di Save the Children attivi nei punti di frontiera, dove il primo contatto con le persone migranti è spesso reso difficile da ostacoli linguistici e culturali. In questi contesti la tecnologia può offrire un supporto concreto, ma solo se progettata su misura: non esistono soluzioni pronte, né linguaggi universali.
CLOSER è stato sviluppato come strumento digitale a supporto degli operatori, in grado di facilitare la comunicazione in assenza di una lingua condivisa. La sua peculiarità non sta solo nell’utilizzo dell’AI, ma nel processo che lo ha generato: un percorso di design centrato sull’utente, basato su user research e user experience condotti in condizioni reali. La componente linguistica è stata una delle più sfidanti, perché si tratta di lingue minoritarie, spesso escluse dai principali modelli AI. Per questo Save the Children ha scelto di costruire modelli linguistici custom, ad esempio per il tigrino, e testarli con utenti reali prima di procedere con investimenti più ampi.
Dal punto di vista organizzativo il progetto è stato accompagnato da un comitato tecnico interno multidisciplinare, che include competenze legali, tutela minori, sicurezza informatica e protezione dei dati. Il riferimento normativo è l’AI Act europeo, ma il principio guida è etico: CLOSER non registra né conserva informazioni personali, e si inserisce in un ecosistema di supporto, non di sostituzione dell’intervento umano.
Il progetto Closer è tra i finalisti del Premio Innovazione Sociale CDP e Intesa San Paolo, premio rivolto a enti non profit che abbiano sviluppato idee o progetti scalabili, orientati a risolvere bisogni sociali concreti in Italia. Attraverso tre categorie, il Premio incentiva lo sviluppo di soluzioni già testate, ma con un potenziale di crescita su scala più ampia. (Nella foto, la descrizione grafica degli obiettivi e funzionalità dell’app)

Save the Children e l’AI come leva di inclusione
Il valore di CLOSER non risiede solo nell’innovazione tecnologica, ma in una visione dell’AI come leva relazionale. La tecnologia non è pensata per “parlare al posto di”, ma per abilitare interazioni dove altrimenti ci sarebbe solo silenzio. Questo stesso principio ha guidato altri progetti avviati da Save the Children.
Un esempio è il programma di inclusione linguistica digitale rivolto a persone migranti che non parlano italiano. Qui l’AI è integrata in un sistema di apprendimento contestualizzato, che simula situazioni della vita reale: andare dal medico, affrontare un colloquio, rivolgersi a un centro antiviolenza; offrendo così un percorso formativo direttamente connesso alla quotidianità. Anche in questo caso, dopo un’analisi dei bisogni tramite focus group, è stato chiaro che le soluzioni esistenti non erano adeguate ai target più vulnerabili, ed è stato deciso di incubare il progetto internamente, con il supporto di SocialFare.
L’intelligenza artificiale qui serve per personalizzare i percorsi, adattare il lessico, simulare scenari dinamici. Ma resta uno strumento, non un fine. Il focus rimane sul contesto, sulla relazione, sull’accessibilità.
Quali condizioni per un’innovazione sostenibile?
Anche in ambiti molto diversi, come l’educazione alle emergenze, l’approccio rimane lo stesso. Save the Children ha avviato il progetto FeelSafe VR, con Fondazione Links e la startup BuildYourFuture, per preparare i giovani (13-18 anni) a fronteggiare catastrofi naturali come alluvioni e incendi. L’esperienza è gamificata, immersiva, accessibile anche tramite VR o desktop, e pensata per essere inclusiva, adattabile a persone con disabilità.
FeelSafe VR è stato presentato ufficialmente a inizio giugno all’evento delle Nazioni Unite sulla DRR (Disaster Risk Reduction) (qui il link all’evento: https://globalplatform.undrr.org/).
Anche qui, più che una soluzione “tech”, è il metodo di sviluppo a essere significativo: focus sul bisogno, test con gli utenti, attenzione alla sostenibilità. In alcuni casi, si valuta se aprire alla finanza innovativa, coinvolgere fondi o business angel. Ma mai prima di aver costruito qualcosa che funzioni nel mondo reale.
Un metodo, prima ancora che una tecnologia
Il lavoro di Save the Children mostra che il valore dell’intelligenza artificiale nei contesti sociali non sta tanto nella potenza dell’algoritmo, quanto nella qualità dell’intenzione che la guida. Non si tratta di “portare l’AI nel sociale”, ma di mettere il sociale al centro del disegno dell’AI.
Il modello che emerge è quello di una innovazione responsabile, che riconosce la complessità e non cerca scorciatoie. Che non parte dalla soluzione, ma dal problema. Che accetta il fallimento e adatta i progetti lungo il percorso. E che fa della tecnologia un’opportunità concreta, non una promessa astratta.