innovazione nella mobilità

Giuseppe Labanca, Head of Innovation di ENAV: “Così implementiamo l’AI Act nei cieli europei per la sicurezza aerea”



Indirizzo copiato

Il responsabile dell’Innovazione in Enav illustra la strategia per integrare l’AI nel traffico aereo. Si punta sulla traduzione tecnica dell’AI Act e sulla collaborazione internazionale. Obiettivo: massima sicurezza nei sistemi di controllo

Pubblicato il 6 feb 2026



AI e sicurezza aerea economyup

Il settore della gestione del traffico aereo rappresenta una delle infrastrutture più critiche e complesse del panorama moderno, dove la precisione e l’affidabilità non sono semplici obiettivi operativi, ma requisiti di sicurezza assoluti. In occasione dell’evento “Artificial Intelligence: adozione, trasformazione, equilibrio”, organizzato dall’Osservatorio Artificial Intelligence del Politecnico di Milano, Giuseppe Labanca, Head of Innovation di ENAV, ha delineato il percorso che l’ente sta seguendo per l’integrazione delle nuove tecnologie. Il punto di partenza di questa evoluzione è il quadro normativo europeo definito dall’AI Act, un regolamento che richiede una declinazione estremamente specifica per poter essere applicato con successo in un ambito ad alto rischio come quello aeronautico.

La gestione del rischio tra competenza e produttività

Una delle questioni centrali affrontate da Labanca riguarda il bilanciamento tra l’efficienza tecnologica e la salvaguardia delle competenze umane necessarie per operare in scenari critici. Esiste infatti il rischio concreto che la ricerca di risultati immediati possa compromettere la solidità dei processi decisionali. Secondo l’Head of Innovation di ENAV, è fondamentale “fare attenzione a barattare la produttività di medio o di breve termine per la competenza di quello che c’è in un contesto critico”. Questa cautela deriva dalla consapevolezza che ENAV opera in un settore “fortemente normato e regolato” dove ogni errore può avere conseguenze rilevanti.

L’introduzione dell’intelligenza artificiale non deve quindi essere vista come una corsa all’automazione selvaggia, ma come un processo governato che mantenga l’operatore umano al centro. La sfida attuale consiste nel trasformare i principi generali contenuti nell’AI Act in strumenti operativi che possano realmente supportare il lavoro dei controllori di volo senza sostituirne il giudizio critico.

Tradurre l’AI Act per il settore aeronautico

L’approccio di ENAV non si limita al recepimento passivo della normativa europea, ma prevede un ruolo attivo nella creazione di regole di settore specifiche. Questo lavoro di “traduzione” tecnica avviene in stretta collaborazione con l’EASA, l’Agenzia per la sicurezza dei cieli europei. Labanca spiega che il processo è già in corso da tempo: “Abbiamo costruito ormai già da un anno e mezzo un tavolo di lavoro con tutti gli attori e stiamo traducendo quindi le linee guida in normativa di settore”.

L’obiettivo finale di questa cooperazione è la produzione di un insieme organico di linee guida che permettano di portare i sistemi di intelligenza artificiale “in esercizio”, ovvero in una fase di produzione reale e quotidiana. Questo passaggio richiede di scendere in dettagli tecnici molto elevati, che vanno ben oltre la teoria, per definire come queste tecnologie debbano comportarsi una volta integrate nelle torri di controllo e nei centri radar.

La classificazione dei sistemi ad alto rischio

Un pilastro fondamentale della strategia basata sull’AI Act è la capacità di identificare e classificare correttamente il livello di rischio associato a ogni singola applicazione di IA. All’interno di ENAV, i sistemi considerati di default come a rischio elevato sono quelli destinati al supporto delle decisioni del controllore. Identificare chiaramente questi strumenti permette di applicare protocolli di sicurezza più rigidi e percorsi di validazione dedicati.

Attualmente, l’ente ha scelto una posizione di prudenza per quanto riguarda i livelli di autonomia più spinti. Labanca è stato molto chiaro su questo punto: “Non si parla di automazione, non si parla di agenti perché non siamo pronti, l’abbiamo visto anche questa mattina”. Il focus resta dunque fermamente ancorato al supporto decisionale, dove l’AI funge da assistente avanzato ma non assume mai il ruolo di decisore finale indipendente.

Validazione, certificazione e risk assessment

Per garantire che l’adozione dell’intelligenza artificiale rispetti i criteri dell’AI Act, ENAV ha definito un percorso metodologico rigoroso che copre l’intero ciclo di vita del software. Non si tratta solo di valutare l’algoritmo finale, ma di monitorare ogni fase della sua creazione. Il processo prevede diversi passaggi chiave:

  • La definizione di come classificare i rischi specifici di ogni applicazione.
  • La conduzione di un risk assessment approfondito prima di ogni implementazione.
  • La mappatura dell’intero ciclo di vita dello sviluppo della soluzione per poterla validare e certificare secondo gli standard aeronautici.

Questo sforzo collettivo ha portato alla creazione di un tavolo di lavoro dove tutti i principali attori del settore collaborano per scrivere le regole che definiranno il futuro della navigazione aerea. È un approccio partecipativo che mira a creare un insieme condiviso di principi e linee guida, garantendo che ogni innovazione sia trasparente, tracciabile e, soprattutto, sicura.

La roadmap verso il regolamento di settore

Il percorso di ENAV per l’integrazione dell’AI è scandito da tappe precise e impegni internazionali. L’azienda ha assunto un ruolo di leadership presiedendo il tavolo di lavoro presso l’associazione di categoria CANSO, che riunisce i gestori del traffico aereo in Europa (ANSP). Questa collaborazione internazionale è essenziale per “presidiare questo tema dall’inizio, e quindi poi farci trovare pronti per le sfide del futuro nella messa in esercizio dell’implementazione operativa di sistemi di AI”.

Il cronoprogramma per i prossimi mesi è già delineato e prevede una serie di consultazioni pubbliche per affinare le normative proposte. Secondo quanto dichiarato da Labanca, il processo è entrato in una fase calda: “Proprio la prossima settimana si concluderà il primo giro di consultazione aperta, quindi ci saranno tutte le revisioni di tutti gli attori”. Il piano di lavoro per l’anno in corso prevede:

  • La conclusione del primo giro di consultazione a breve termine.
  • Lo svolgimento di altre due consultazioni programmate entro la fine dell’anno.
  • Il raggiungimento, entro il termine dell’anno, di una prima bozza effettiva di regolamento di settore che integri i dettami dell’AI Act.

Questa pianificazione dimostra come la governance dell’innovazione in ENAV non sia un’attività teorica, ma un processo industriale strutturato, mirato a fornire certezze normative e tecniche a un settore che non può permettersi margini di incertezza. L’obiettivo è farsi trovare pronti per l’implementazione operativa dei sistemi di intelligenza artificiale, avendo già pronti i protocolli di sicurezza e le certificazioni necessarie per garantire l’incolumità dei passeggeri e l’efficienza dei cieli europei.

La sfida della governance dell’AI nelle infrastrutture critiche si gioca dunque sulla capacità di anticipare i tempi, collaborando con i regolatori per creare un ambiente dove l’innovazione tecnologica sia sempre subordinata alla sicurezza e alla competenza umana.

Con l’avvicinarsi della scadenza per la prima bozza di regolamento, ENAV si posiziona come un punto di riferimento europeo per la traduzione dell’AI Act in realtà operativa, dimostrando che anche nei settori più complessi e regolati è possibile accogliere l’innovazione, purché sia guidata da un framework di regole chiaro e condiviso.

guest

0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x