A quanta privacy siamo disposti a rinunciare per avere più sicurezza? Proteggere ed essere protetti giustifica la rinuncia a una bricola di libertà alla volta? Le polemiche sulla richiesta di identificazione per accedere ai siti pornografici come misura a tutela dei minori riporta l’attenzione sul dibattito, in corso da anni, sul rapporto tra privacy e sicurezza che ha assunto una dimensione sempre più complessa. Non si tratta più soltanto di stabilire fino a che punto uno Stato possa spingersi a limitare le libertà individuali in nome della protezione collettiva; oggi l’elemento che complica radicalmente lo scenario è la velocità del progresso tecnologico.
Gli strumenti di controllo, analisi, sorveglianza e prevenzione si evolvono a un ritmo così rapido che i sistemi legislativi faticano persino a comprenderli, figurarsi a regolarli. Ci troviamo oggi in una realtà in cui il mos anticipa la lex in modo così evidente da rendere molte norme già parzialmente obsolete nel momento stesso in cui vengono promulgate.
Indice degli argomenti
Privacy e sicurezza nell’era della sorveglianza digitale
In questo scenario, parlare di equilibrio tra privacy e sicurezza significa misurarsi con una tensione permanente tra tutela collettiva e diritti fondamentali. La stessa idea di sicurezza tende a essere ridefinita attraverso strumenti di sorveglianza digitale, algoritmi predittivi e raccolte massive di dati, che spostano il baricentro dal controllo ex post al controllo preventivo e pervasivo.
Online Safety Act e il rischio di sorveglianza generalizzata
Molti governi, come nel caso del Regno Unito con l’Online Safety Act, stanno adottando misure via via più invasive nel tentativo di proteggere soprattutto i minori dai rischi online: predazione, adescamento, diffusione non consensuale di contenuti e altre forme di violenza digitale. In questo quadro, il confine tra protezione e sorveglianza generalizzata diventa sempre più sottile.
La protezione dei minori come argomento politico
Le intenzioni sono comprensibili, ma ciò che sta emergendo, ed è oggetto di un acceso dibattito, è che queste normative rischiano di sacrificare su larga scala la privacy degli utenti, introducendo meccanismi di controllo che incidono anche sulle comunicazioni private. Nel caso britannico, ad esempio, l’Online Safety Act combina obblighi stringenti di verifica dell’età con la possibilità di imporre forme di scansione preventiva dei contenuti, anche all’interno di comunicazioni cifrate, alimentando il timore di una sorveglianza di fatto permanente.
A ciò si aggiungono nuove fattispecie penali e poteri ampliati per le autorità, che possono avere effetti indiretti sulla libertà di espressione e sulla spontaneità della comunicazione online. Il paradosso è evidente: per ottenere “un poco di sicurezza”, si rischia di rinunciare a diritti fondamentali considerati fino a pochi anni fa intangibili. La retorica della protezione dei giovani diventa così uno dei terreni più scivolosi perché alimenta scelte emotive più che razionali, che spingono l’opinione pubblica ad accettare livelli di intrusione irrealizzabili in altri contesti.
Dal caso britannico al quadro europeo (DSA e AI Act)
La stessa tensione attraversa il quadro europeo. Da un lato, il Digital Services Act impone alle piattaforme, soprattutto a quelle di dimensioni molto grandi, obblighi specifici per la protezione dei minori, chiedendo misure “appropriate e proporzionate” e, più di recente, accompagnandole con linee guida che insistono sulla necessità di mantenere alti livelli di privacy, sicurezza e protezione per i soggetti vulnerabili. Dall’altro lato, il rischio è che strumenti di verifica dell’etàe classificazione dei contenuti finiscano per consolidare architetture di tracciamento e profilazione sempre più pervasive.
Nel frattempo, il regolamento europeo sull’intelligenza artificiale introduce un approccio risk-based e prevede, per i sistemi ad “alto rischio”, una valutazione d’impatto sui diritti fondamentali prima della loro adozione. Si tratta di un tentativo di integrare la riflessione sui diritti digitali nella progettazione delle tecnologie, ma anche questi strumenti rischiano di arrivare tardi, se non sono accompagnati da adeguate competenze tecniche, risorse e controlli effettivi.
Tecnologie che corrono, leggi che inseguono
Il problema centrale resta il fatto che le tecnologie cambiano più in fretta dei quadri normativi. Algoritmi predittivi, intelligenze artificiali generative, sistemi di tracciamento comportamentale e modelli di sorveglianza automatizzataevolvono con cadenze mensili, a volte settimanali. La legge, invece, si muove in tempi lunghi: consultazioni, bozze, opposizioni politiche, revisioni, approvazioni.
Quando finalmente un testo normativo viene approvato, il contesto tecnologico è già cambiato radicalmente. Quel che resta è un apparato normativo che assomiglia più a un tentativo di difesa tardiva, spesso inefficace, che a uno strumento in grado di guidare lo sviluppo tecnologico in modo consapevole. Questo ritardo non è solo formale: produce conseguenze concrete. Norme pensate per tutelare rischiano di creare nuovi rischi, o di spingere governi e aziende a implementare tecniche invasive che non tengono conto dei diritti digitali fondamentali.
Illusione del controllo e fragilità dell’equilibrio tra privacy e sicurezza
Guardando ai provvedimenti più recenti, emerge un pattern chiaro: si interviene dopo il danno, dopo uno scandalo di sorveglianza, dopo un problema di sicurezza, dopo un caso di abuso. È come se la legislazione fosse sempre impegnata a chiudere la stalla quando i buoi sono già scappati, spesso reagendo a episodi eclatanti che coinvolgono le grandi piattaforme digitali, tra sanzioni per violazioni del GDPR, contestazioni sull’uso dei dati personali e nuove regole imposte dal DSA.
Questa logica reattiva non funziona in un mondo digitale in cui i rischi si diffondono alla velocità dei dati. Senza un approccio di anticipazione, che unisca competenze tecnologiche, etiche, giuridiche ed educative, continueremo a produrre leggi “vecchie”, inadatte e pericolosamente generiche, e soprattutto continueremo a scambiare l’illusione del controllo per una sicurezza che, nei fatti, non c’è.
Governare la complessità tecnologica senza sacrificare i diritti
Trovare un equilibrio tra privacy e sicurezza non significa scegliere una delle due. Significa riconoscere che senza privacy non esiste vera sicurezza: non per i cittadini, non per le democrazie, non per la società.
Occorre abbandonare la narrazione secondo cui la rinuncia ai diritti sia l’unica strada per proteggere i più vulnerabili. Al contrario, servono strumenti regolatori costruiti con la tecnologia, non contro o dopo di essa. Serve una cultura del rischio digitale condivisa, che non si limiti a reprimere, ma sappia progettare.
Serve trasparenza nello sviluppo degli algoritmi, limiti chiari alla sorveglianza, controlli indipendenti, e soprattutto una costante valutazione degli impatti sociali e psicologici delle soluzioni adottate. La sfida dei prossimi anni sarà imparare a governare la complessità tecnologica senza cedere al panico morale e senza costruire sistemi di controllo che minano i principi stessi delle società democratiche.
La legge deve ritrovare la capacità non solo di difendere, ma di prevedere: deve imparare a osservare da vicino l’evoluzione del mos e a dialogare con esso. Solo così potremo evitare di vivere in un mondo in cui, per ogni briciola di sicurezza promessa, ci viene chiesto di cedere un pezzo della nostra libertà.






