Attentato a Berlino

«Così l’analisi delle “briciole digitali” può contrastare i terroristi»

Francesco Archetti, professore di Informatica all’Università di Milano-Bicocca, spiega come si possono usare i big data per monitorare i “segnali deboli” di radicalizzazione lasciati in rete e individuare in anticipo potenziali jihadisti. «Ma per essere più sicuri bisognerà cedere un po’ della propria privacy»

Pubblicato il 22 Mar 2016

data-151119083401

Francesco Archetti, ordinario di Informatica - Università Bicocca

«I big data costituiti dalle digital breadcrumbs, le briciole digitali che ognuno di noi lascia in rete e in particolare sui social, sono uno strumento molto efficace per contrastare il terrorismo e fare prevenzione: monitorando le reti sociali a cui un individuo appartiene si possono individuare i segnali deboli di radicalizzazione lasciati sul web, consentendo di puntare una lente di ingrandimento e di attivare indagini più specifiche». Nella lotta al terrore, l’uso dei big data può essere determinante perché permette di individuare in anticipo persone che lasciano la propria comunità di riferimento e rischiano di avvicinarsi ai gruppi di estremisti. Lo spiega Francesco Archetti, professore di Informatica all’Università di Milano-Bicocca, che da anni studia i metodi per combattere il terrorismo con la tecnologia. Secondo Archetti, integrando i database a disposizione e concentrandosi sull’analisi delle briciole digitali è possibile arrivare a risultati sempre più precisi, ma è necessario cedere un po’ di privacy in cambio della sicurezza. «È compito della tecnologia fare in modo che la rinuncia alla propria riservatezza sia minima».

Professor Archetti, che tipi di big data vengono utilizzati al momento nel contrasto al terrorismo?

Sono tre. Cronologicamente, i primi dati utilizzati sono quelli presenti nei database investigativi tradizionali, con informazioni raccolte e inserite dalle forze dell’ordine. A questi, si sono aggiunti i dati ricavati dall’uso di strumenti digitali nelle attività quotidiane: carte di credito, trasferimenti di denaro, noleggi… Anche in questo caso, si tratta di dati presenti in database ufficiali e vengono utilizzati per completare i profili delle persone oggetto di attenzione da parte di chi indaga. Il terzo livello, che ormai è molto rilevante, è costituito dalle cosiddette digital breadcrumbs, le briciole digitali, ovvero le tracce che ognuno di noi lascia in rete, e in particolare sui social network, e da cui si possono ricavare informazioni su comportamenti e stili di vita.

Ci sono tecnologie per far “parlare” tra loro questi database e fornire informazioni più complete?

Le tecnologie per l’integrazione e l’interoperabilità di questi database sono recenti. D’altronde, se per i primi due database si possono utilizzare tecniche standard di recupero delle informazioni attraverso metadati, nel caso delle briciole digitali si ha bisogno di complesse tecnologie di information retrieval basate su analisi sematica, machine learning e intelligenza artificiale. Si deve in pratica dire alle macchine di apprendere ed elaborare informazioni partendo da dati multimediali, in prevalenza testuali, come su Twitter.

Perché analizzare le “briciole digitali” è così importante?

L’analisi non si fa più solo sui comportamenti irregolari: prima si andava in questi database a cercare informazioni su persone che avevano detto o fatto qualcosa di manifestamente sospetto o pericoloso. Ora però non ci si può limitare solo a quello: si tratterebbe di una strategia solo repressiva. Serve anche prevenzione. E visto che non ci si aspetta che qualcuno dica “ora divento terrorista” è molto più efficace rilevare le anomalie, il cambiamento e, in particolare, ‘l’assenza’ in seguito a qualche cambiamento. Sono in atto azioni di propaganda, proselitismo e radicalizzazione, spesso alla luce del sole ma molto più spesso nascoste e al di fuori del mondo dei social network. Tuttavia, la radicalizzazione di un individuo non è un processo immediato e – come già riportato per alcuni dei casi londinesi (come le ragazze fuggite in Siria per sposare dei musulmani) – prima che si concluda ci sono segnali deboli come i cambiamenti nel modo di comunicare: cambia il contenuto dei suoi messaggi e la cerchia delle amicizie e, in seguito, si assiste alla ‘sparizione’, in primis dai social network, della persona ‘che tutti hanno sempre conosciuto’. Quindi, i big data costituiti da queste briciole digitali, raccolte attraverso il monitoraggio degli appartenenti alle community di reti sociali a cui l’individuo appartiene, riescono a far emergere scostamenti nelle abitudini, consentendo di puntare una lente di ingrandimento e di attivare procedure di accertamento più specifiche.

Che criticità presenta questo approccio?

Questi metodi si basano anche sull’analisi di comportamenti normali. Quindi è normale che si pongano dei problemi legati alla privacy. I limiti di trattamento dei dati per le forze dell’ordine sono stabiliti per legge e sono piuttosto rigidi: ogni trattamento deve avvenire sotto il controllo dell’autorità giudiziaria e non è possibile monitorare in maniera indiscriminata la popolazione nella speranza di trovare traccia di qualche reato. Per usare una metafora: non è possibile per le forze dell’ordine la pesca a strascico dei dati. Il discorso è diverso se parliamo dei servizi di intelligence ai quali la legge concede, nel nome della sicurezza dello Stato, un più ampio grado di libertà. A mio parere, però, dobbiamo rassegnarci a cedere un po’ di privacy in cambio della sicurezza. Il compito della tecnologia è fare in modo che la privacy a cui si rinuncia sia minima. E bisogna anche accettare che la frontiera di ciò che è difendibile è mobile: certi dati sensibili che certamente vanno tutelati – come età, sesso, religione e così via – si possono ormai inferire molto facilmente dall’analisi di ciò che è presente in rete.

Come si sceglie chi monitorare?

Anche monitorando tutta la rete, è certamente possibile che persone pericolose sfuggano al radar. Permarrebbe la possibilità di un errore nell’apprendimento statistico.In un’ipotesi più realistica gli ambienti target, in particolare a rischio di radicalizzazione, verrebbero indicati dalle agenzie investigative, consentendo di finalizzare, di migliorare pertinenza ed affidabilità nell’assessment, controllando non solo l’individuo ma anche le sue relazioni all’interno delle comunità cui partecipa. Naturalmente questa analisi potrebbe essere estesa alle ulteriori comunità – di secondo livello – che condividono degli individui. Ogni allargamento consente di migliorare la valutazione, anche puntuale.

Qual è lo stato dell’arte di queste tecnologie per la prevenzione?

Ci sono prototipi elaborati nell’ambito di progetti europei che coinvolgono atenei, enti di ricerca e aziende. L’Università Bicocca, per esempio partecipa ad alcune di queste iniziative: Proactive, iniziato nel 2012 e chiuso a fine aprile di quest’anno, era un progetto di ricerca finanziato dall’Ue che mirava a creare un framework per caratterizzare il comportamento dei terroristi; ILLBuster, finanziato dalla Commissione europea, che si concluderà nel 2016, che ha l’obiettivo di mettere a punto un sistema per rilevare attività illegali in rete, dalla pedopornografia ai malware; Vigilant è una proposta nell’ambito di Horizon 2020 che propone la realizzazione di una piattaforma, configurabile, multi-source e privacy friendly per l’identificazione la raccolta e l’analisi di informazioni pubblicate da gruppi terroristici sui social e sui siti, sia dell’Internet visibile che del dark web. Se invece ci concentriamo sul panorama industriale, ci sono imprese che stanno lavorando su iniziative di questo tipo, tra cui alcune aziende italiane al top nelle tecnologie per la difesa e la sicurezza. Ma in genere la messa in produzione di questi sistemi è ancora limitata e c’è ancora molto lavoro da fare.

Finora ha fatto riferimento all’Europa. Ma che livello hanno raggiunto da questo punto di vista Paesi come Stati Uniti e Israele, dove comunque sono state approvate regole un po’ meno stringenti per quanto riguarda la tutela della privacy?

La verità è che non lo sappiamo. O meglio sappiamo tutti, a seguito delle rivelazioni di Edward Snowden, che la NSA (la National Security Agency), che si occupa della sicurezza sul territorio degli Stati Uniti, ha monitorato la maggior parte del traffico della rete che passava per i nodi presenti sul territori statunitense in forza delle leggi antiterrorismo. Questo non significa che abbiano rispettato la privacy delle persone, ma solo la legge: la privacy è una categoria che non si può limitare alle definizioni giuridiche di “dati personali”. È banale dirlo, ma, per definizione, non possiamo sapere che cosa facciano i servizi segreti né quali progetti perseguano, tenendo conto che possono contare su ingenti risorse economiche. Dal punto di vista giuridico-normativo, è preziosa la collaborazione con Andrea Rossetti, professore di diritto e informatica giuridica in Bicocca, il quale sottolinea come le cose siano in rapido sviluppo. Per esempio, il 4 novembre di quest’anno nel Regno Unito è stato presentato un disegno di legge (Investigatory Powers Bill) che, secondo i suoi detrattori, legittimerebbe la sorveglianza di massa dei sudditi della corona inglese. Dal punto di vista della ricerca open, Israele e Usa stanno considerando temi non dissimili dai progetti europei. Molto diversa è la situazione a livello di aziende startup i cui prodotti vengono immessi, in modo più efficace di quanto accada da noi, a livello di deployment operativo. Si tenga conto però che questa è una mia sensazione opinione: non ho esperienza diretta.

Ha parlato di startup: ci sono nuove imprese innovative che lavorano in questo settore?

Se parliamo di startup che lavorano su big data e security, con particolare riferimento alla sicurezza industriale, ce ne sono tante. Se invece ci riferiamo a startup che si occupano di big data in rapporto al contrasto al terrorismo allora la platea è molto più ristretta e sarebbe difficile anche fare dei nomi. O meglio, di team che lavorano su questi temi all’interno di università ed enti di ricerca ci sono, ma spesso restano a questo livello senza evolvere in realtà industriali. Il problema è che una startup fa enorme fatica a entrare in grandi progetti coordinati a livello sovranazionale e in cui sono coinvolte grandi aziende. Nell’ambito della difesa, ci sono – anche giustamente – moltissimi vincoli: sono necessarie autorizzazioni militari, controlli, non basta avere delle idee.

Pezzo aggiornato il 20 dicembre 2016

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3