IL FOCUS

AI Act e etica: come l’Europa vuole guidare lo sviluppo responsabile dell’intelligenza artificiale



Indirizzo copiato

L’AI Act dell’UE è il primo regolamento globale sull’intelligenza artificiale: promuove un uso etico e sicuro della tecnologia, allo scopo di tutelare i diritti umani e imporre obblighi in base al rischio. Un’opportunità per imprese e società

Pubblicato il 26 mag 2025

Silvia Pugi

vicesegretario CEC European Managers



Etica e intelligenza artificiale
Etica e intelligenza artificiale

L’intelligenza artificiale entra sempre più nel modo in cui viviamo e lavoriamo, dai chatbot per l’assistenza clienti agli strumenti che migliorano l’assistenza sanitaria, fino alle tecnologie predittive che trasformano l’industria e la finanza.

L’AI è uno straordinario strumento di produttività, arrivando anche prendere decisioni, ma con quali regole?

In questo contesto si inserisce l’AI Act dell’Unione Europea, il primo regolamento al mondo che punta a governare lo sviluppo e l’uso dell’IA con un approccio antropocentrico, etico, basato sul rischio.

In questo senso, l’AI Act oltre ad essere una norma tecnica è un invito a ripensare il rapporto tra tecnologia e società, tra innovazione e responsabilità.

AI Act: un’innovazione normativa nell’etica per l’intelligenza artificiale

Adottato nel 2024, l’AI Act rappresenta un passo fondamentale verso un’IA “affidabile” che coniughi innovazione e tutela dei diritti fondamentali. L’obiettivo è duplice: da un lato stimolare lo sviluppo tecnologico in Europa, dall’altro garantire che le tecnologie siano al servizio delle persone, e non viceversa.

Il regolamento introduce una classificazione dei sistemi di IA in base al livello di rischio che comportano per la società: rischio inaccettabile (proibito), alto, limitato, minimo (la maggioranza delle applicazioni).

La Rome Call for AI Ethics: un’alleanza per l’umano

Già nel 2020, prima ancora dell’AI Act, la “Rome Call for AI Ethics” aveva tracciato una visione condivisa tra istituzioni religiose, governi, aziende e accademie per un’IA che serva il bene comune e rispetti la dignità umana, porti benefici a tutti e non abbia come unico scopo il profitto o la sostituzione del lavoro umano.  

Firmata da realtà come Microsoft e la Pontificia Accademia per la Vita, la Rome Call propone sei principi fondamentali, detti Algor-etica:

  1. Trasparenza: i sistemi di IA devono essere comprensibili.
  2. Inclusione: nessuno deve essere escluso dai benefici dell’IA.
  3. Responsabilità: chi sviluppa e utilizza l’IA deve rispondere delle proprie scelte.
  4. Imparzialità: l’IA non deve generare o amplificare pregiudizi.
  5. Affidabilità: i sistemi devono funzionare correttamente e prevedibilmente.
  6. Sicurezza e privacy: i dati personali devono essere protetti.

Etica e intelligenza artificiale: i principi dell’Ai Act

In questo contesto, è stato definito il cuore dell’AI Act, che non è solo tecnico o normativo, ma profondamente etico.

I principi fondanti richiamano una visione dell’IA come strumento al servizio dell’umanità:

  • Centralità dell’essere umano: ogni sistema deve rafforzare l’autonomia, la dignità e il benessere delle persone, mantenendo sempre una supervisione e un controllo umano, soprattutto nelle decisioni critiche. Vale il principio di human-in-the-loop: la decisione finale dev’essere presa da una persona, non può essere totalmente automatizzata.
  • Robustezza tecnica e sicurezza: l’IA deve essere affidabile, resiliente e in grado di prevenire danni accidentali o dolosi (gestione dei rischi e cybersecurity)
  • Rispetto della privacy e governance dei dati: la gestione dei dati deve essere trasparente, tracciabile e conforme alle normative sulla protezione dei dati personali. Fondamentale proteggere i dati presenti in azienda, affinché non siano immessi in rete a seguito dell’uso di sistemi AI non “on premises”.
  • Trasparenza ed esplicabilità: gli utenti devono sapere quando interagiscono con un sistema di IA e devono poter comprendere le logiche decisionali sottostanti.
  • Equità e non discriminazione: è necessario prevenire bias algoritmici e promuovere l’inclusione, evitando che l’IA perpetui o amplifichi disuguaglianze presenti nei dati storici. Per es, se in passato per una certa posizione venivano sempre selezionati candidati uomini, serve “forzare” l’AI che svolge lo screening dei cv a proporre anche delle candidate donne.
  • Sostenibilità sociale e ambientale: l’IA deve contribuire al benessere collettivo e alla protezione dell’ambiente.
  • Responsabilità: sviluppatori, fornitori e utilizzatori devono rendere conto delle proprie scelte tecnologiche e assumersene le responsabilità. Da capire come i fornitori non Europei di Ai, che sono la stragrande maggioranza, si adegueranno a questo obbligo.

Intelligenza artificiale e etica: le implicazioni per le imprese

L’IA è spesso già presente nei processi operativi: chatbot per l’assistenza clienti, strumenti di marketing automation, software per l’analisi dei dati o la gestione amministrativa, sistemi di screening per i processi di selezione del personale.

L’AI Act promuove una governance responsabile dell’AI, partendo dal definire policy interne e formazione per il personale.

Un suggerimento è di istituire un “Comitato Etico” interno, che definisca le regole, assegni responsabilità e verifichi la qualità degli output.

L’AI Act non è solo un vincolo, ma è anche una leva competitiva per la sostenibilità del business nel lungo periodo, costruita sulla fiducia degli utenti e la reputazione aziendale.

guest

0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x