L’intelligenza artificiale entra sempre più nel modo in cui viviamo e lavoriamo, dai chatbot per l’assistenza clienti agli strumenti che migliorano l’assistenza sanitaria, fino alle tecnologie predittive che trasformano l’industria e la finanza.
L’AI è uno straordinario strumento di produttività, arrivando anche prendere decisioni, ma con quali regole?
In questo contesto si inserisce l’AI Act dell’Unione Europea, il primo regolamento al mondo che punta a governare lo sviluppo e l’uso dell’IA con un approccio antropocentrico, etico, basato sul rischio.
In questo senso, l’AI Act oltre ad essere una norma tecnica è un invito a ripensare il rapporto tra tecnologia e società, tra innovazione e responsabilità.
Indice degli argomenti
AI Act: un’innovazione normativa nell’etica per l’intelligenza artificiale
Adottato nel 2024, l’AI Act rappresenta un passo fondamentale verso un’IA “affidabile” che coniughi innovazione e tutela dei diritti fondamentali. L’obiettivo è duplice: da un lato stimolare lo sviluppo tecnologico in Europa, dall’altro garantire che le tecnologie siano al servizio delle persone, e non viceversa.
Il regolamento introduce una classificazione dei sistemi di IA in base al livello di rischio che comportano per la società: rischio inaccettabile (proibito), alto, limitato, minimo (la maggioranza delle applicazioni).
La Rome Call for AI Ethics: un’alleanza per l’umano
Già nel 2020, prima ancora dell’AI Act, la “Rome Call for AI Ethics” aveva tracciato una visione condivisa tra istituzioni religiose, governi, aziende e accademie per un’IA che serva il bene comune e rispetti la dignità umana, porti benefici a tutti e non abbia come unico scopo il profitto o la sostituzione del lavoro umano.
Firmata da realtà come Microsoft e la Pontificia Accademia per la Vita, la Rome Call propone sei principi fondamentali, detti Algor-etica:
- Trasparenza: i sistemi di IA devono essere comprensibili.
- Inclusione: nessuno deve essere escluso dai benefici dell’IA.
- Responsabilità: chi sviluppa e utilizza l’IA deve rispondere delle proprie scelte.
- Imparzialità: l’IA non deve generare o amplificare pregiudizi.
- Affidabilità: i sistemi devono funzionare correttamente e prevedibilmente.
- Sicurezza e privacy: i dati personali devono essere protetti.
Etica e intelligenza artificiale: i principi dell’Ai Act
In questo contesto, è stato definito il cuore dell’AI Act, che non è solo tecnico o normativo, ma profondamente etico.
I principi fondanti richiamano una visione dell’IA come strumento al servizio dell’umanità:
- Centralità dell’essere umano: ogni sistema deve rafforzare l’autonomia, la dignità e il benessere delle persone, mantenendo sempre una supervisione e un controllo umano, soprattutto nelle decisioni critiche. Vale il principio di human-in-the-loop: la decisione finale dev’essere presa da una persona, non può essere totalmente automatizzata.
- Robustezza tecnica e sicurezza: l’IA deve essere affidabile, resiliente e in grado di prevenire danni accidentali o dolosi (gestione dei rischi e cybersecurity)
- Rispetto della privacy e governance dei dati: la gestione dei dati deve essere trasparente, tracciabile e conforme alle normative sulla protezione dei dati personali. Fondamentale proteggere i dati presenti in azienda, affinché non siano immessi in rete a seguito dell’uso di sistemi AI non “on premises”.
- Trasparenza ed esplicabilità: gli utenti devono sapere quando interagiscono con un sistema di IA e devono poter comprendere le logiche decisionali sottostanti.
- Equità e non discriminazione: è necessario prevenire bias algoritmici e promuovere l’inclusione, evitando che l’IA perpetui o amplifichi disuguaglianze presenti nei dati storici. Per es, se in passato per una certa posizione venivano sempre selezionati candidati uomini, serve “forzare” l’AI che svolge lo screening dei cv a proporre anche delle candidate donne.
- Sostenibilità sociale e ambientale: l’IA deve contribuire al benessere collettivo e alla protezione dell’ambiente.
- Responsabilità: sviluppatori, fornitori e utilizzatori devono rendere conto delle proprie scelte tecnologiche e assumersene le responsabilità. Da capire come i fornitori non Europei di Ai, che sono la stragrande maggioranza, si adegueranno a questo obbligo.
Intelligenza artificiale e etica: le implicazioni per le imprese
L’IA è spesso già presente nei processi operativi: chatbot per l’assistenza clienti, strumenti di marketing automation, software per l’analisi dei dati o la gestione amministrativa, sistemi di screening per i processi di selezione del personale.
L’AI Act promuove una governance responsabile dell’AI, partendo dal definire policy interne e formazione per il personale.
Un suggerimento è di istituire un “Comitato Etico” interno, che definisca le regole, assegni responsabilità e verifichi la qualità degli output.
L’AI Act non è solo un vincolo, ma è anche una leva competitiva per la sostenibilità del business nel lungo periodo, costruita sulla fiducia degli utenti e la reputazione aziendale.






