POLITICA & INNOVAZIONE

AI Act verso l’approvazione: i vantaggi e le criticità



Indirizzo copiato

Dopo il via libera del Coreper, entro il 24 aprile è atteso il voto del Parlamento Europeo sull’ AI Act, il primo quadro normativo a livello mondiale sull’intelligenza artificiale e le sue applicazioni. Ecco i punti di forza e i limiti nell’analisi di tre avvocati dello studio Portolano Cavallo

Pubblicato il 1 feb 2024



AI Act

L’ AI Act, il primo quadro normativo a livello mondiale sull’intelligenza artificiale e le sue applicazio, prosegue il suo iter verso l’approvazione. Venerdì 2 febbraio c’è stato il via libera del Coreper (il Comitato dei rappresentanti permanenti dei Governi degli Stati membri della UE) che prepara il voto del Consiglio Europeo e poi del Parlamento, la cui approvazione dovrebbe arrivare entro il 24 aprile. Il dibattito si è acceso ormai da qualche mese e da una settimana circola una bozza non ufficiale del testo del Regolamento (UE) 2021/0106, su cui è stato raggiunto un accordo provvisorio fra Parlamento Europeo e Consiglio, e su cui è possibile cominciare a fare qualche considerazione più consistente. Ecco l’analisi di un team di professionisti legali.

=========================

L’iter di approvazione dell’AI Act ha visto contrapposta l’opinione di chi ritiene che lo sviluppo dell’intelligenza artificiale debba essere “guidato” attraverso la legislazione e quella di chi, invece, sostiene che provare ad ingabbiare dentro regole scritte l’intelligenza artificiale sia sbagliato.

Entrambe le tesi portano con sé argomenti interessanti e considerazioni, anche di carattere politico, di cui va tenuto conto nel valutare l’AI Act.

I punti di forza dell’AI Act: “effetto Bruxelles” e tutela dei diritti fondamentali

L’AI Act è destinato a diventare la prima regolamentazione al mondo dell’intelligenza artificiale, attribuendo all’Unione Europea un ruolo centrale a livello globale, con possibili vantaggi sui concorrenti.

Si mira a creare il cosiddetto “effetto Bruxelles”, ossia far sì che gli altri Paesi seguano l’esempio dell’Unione Europea, sviluppando a propria volta un quadro normativo chiaro, in linea con i principi dell’Unione.

Come confermato anche dall’ultima bozza di testo fatta circolare, attraverso l’AI Act s’intende promuovere la diffusione di un’intelligenza artificiale affidabile (“trustworthy”), proprio perché basata sui principi fondamentali dell’Unione, che mirano a bilanciare la spinta economica e le istanze sociali.

I diritti fondamentali e la libertà delle persone rappresentano un punto centrale di tutta la normativa, e la loro tutela l’obiettivo ultimo della stessa. Questo approccio è confermato anche dall’ultima bozza di testo, come emerge, ad esempio, dalla scelta di mantenere l’obbligo di svolgere una valutazione d’impatto sui diritti fondamentali (“FRIA”), i cui risultati dovranno essere comunicati all’autorità di controllo competente, sebbene con un ambito più limitato rispetto a quanto inizialmente previsto.

Nella proposta del Parlamento Europeo, l’obbligo di eseguire la FRIA, infatti, avrebbe trovato applicazione, con poche eccezioni, nei confronti di tutti i fornitori di sistemi di intelligenza artificiale qualificati come “ad alto rischio”.

L’AI Act individua, infatti, quattro diverse categorie di sistemi di intelligenza artificiale (a rischio inaccettabile, ad alto rischio, a rischio medio, a rischio minimo o nullo) individuando obblighi diversi e via via più stringenti a mano a mano che cresce il livello di rischio ad essi correlato, fino a vietarne del tutto l’utilizzo nel caso di rischio inaccettabile.

Nella bozza di testo definitivo, invece, l’ambito di applicazione è limitato soltanto agli organismi di diritto pubblico o soggetti privati che forniscono servizi pubblici.

Le criticità dell’AI Act: il rischio di obsolescenza della disciplina e l’impatto sugli investimenti

Uno dei rischi più volte messo in luce in relazione all’AI Act è quello di obsolescenza della disciplina. Il rischio, cioè, che al momento della sua entrata in vigore, la normativa risulti già “vecchia” e non in linea con le esigenze concrete. Ciò, nonostante gli enormi sforzi, a livello istituzionale e diplomatico, necessari alla sua approvazione.

La bozza di testo definitivo prevede che l’AI Act sia applicabile decorsi 24 mesi dalla sua approvazione, ad eccezione di alcune disposizioni che saranno applicabili dopo 6 o 12 mesi. E già questo dato, in effetti, mal si concilia con la velocità con cui l’intelligenza artificiale ha dimostrato di evolversi e trasformarsi.

Chi sostiene che disciplinare l’intelligenza artificiale sia inutile, sottolinea anche che l’imposizione di regole e obblighi possa scoraggiare gli investitori nel settore. D’altro canto, è però vero che l’Unione Europea ha adottato un pacchetto di misure volte a sostenere le start-up e le PMI impegnate nello sviluppo dell’intelligenza artificiale (qui il comunicato stampa della Commissione Europea) . Una volta che il testo definitivo sarà disponibile sarà probabilmente possibile stimare i pesi di queste due opposte considerazioni.

Guardando al passato più recente, va detto che le stesse critiche avevano accompagnato l’entrata in vigore del Regolamento (UE) 679/2016 sulla protezione dei dati personali (“GDPR”). Eppure, ad oggi, molti studi dimostrano che la maggiore consapevolezza dei consumatori ha trasformato l’essere compliant con la disciplina in un vantaggio competitivo per le imprese. Nulla esclude, quindi, che un meccanismo simile possa innescarsi anche nel settore dell’intelligenza artificiale.

I “general purpose AI model” e i sistemi di riconoscimento biometrico in tempo reale

Una delle proposte del Parlamento Europeo maggiormente discusse era stata l’introduzione di obblighi specifici per i fornitori dei cosiddetti “foundation models”, ossia quei modelli alla base del funzionamento di strumenti come ChatGPT e Microsoft Bing, che hanno dimostrato grandi potenzialità e rischi.

In molti consideravano gli obblighi superflui ed eccessivamente onerosi per le PMI. I “foundation models” sono quindi stati esclusi in seguito al compromesso raggiunto fra Parlamento Europeo e Consiglio.

La nuova versione introduce, invece, la nozione di “general purpose AI model”, che ricalca solo in parte quella precedentemente proposta per i “foundation models”, ma con alcune specifiche (ad esempio, l’irrilevanza delle modalità con cui il modello è immesso nel mercato ai fini della classificazione).

I fornitori di “general purpose AI models” sono perlopiù tenuti ad obblighi informativi e di trasparenza, con misure più stringenti per i modelli che risultano avere un rischio sistematico.

Altro tema di cui si è molto discusso è quello relativo all’utilizzo di sistemi di riconoscimento biometrico in tempo reale negli spazi pubblicamente accessibili. Vi è stata, infatti, una contrapposizione fra la posizione del Parlamento Europeo, favorevole ad un divieto assoluto, e quella del Consiglio, propenso invece alla previsione di deroghe a tale divieto, nel caso di utilizzo dei sistemi da parte delle forze di polizia.

Il compromesso raggiunto ha premiato il secondo approccio. La bozza di testo fatta circolare prevede, infatti, che questi sistemi possano essere utilizzati dalle forze dell’ordine, ma solo in circostanze specifiche quali, ad esempio, la prevenzione di pericoli reali e imminenti alla vita o all’integrità fisica delle persone.

La costante è ancora una volta il tentativo di trovare un corretto bilanciamento, sfruttando le potenzialità dei sistemi di intelligenza artificiale, ma scongiurando al contempo il rischio di abusi e utilizzi pericolosi per i diritti e le libertà delle persone fisiche.

Il rischio dell’aumento degli obblighi di legge

In generale, si può dire dunque che l’AI Act presenta senz’altro degli aspetti positivi, ma anche numerose zone grigie, che andranno valutate sia alla luce del testo definitivo che del coordinamento fra AI Act e la normativa già esistente o nell’agenda dell’UE.

Assistiamo infatti a un continuo incremento di norme, con il rischio che la sovrapposizione di più discipline determini un eccessivo aumento degli obblighi e dei requisiti necessari a garantire piena conformità, nonché la creazione di zone grigie e di incertezze sull’applicabilità delle diverse disposizioni.

Nonostante, infatti, l’attività legislativa portata avanti dalla Commissione si collochi all’interno della più ampia strategia europea sui dati, non si può escludere che la sua attuazione concreta si riveli complessa e particolarmente onerosa per le società che operano nel mercato europeo.

Anche in questo caso, tuttavia, solo alla luce dell’applicazione delle varie discipline si riuscirà a comprendere se, e in che misura, il nuovo insieme di regole dettate a livello europeo sia sostenibile per il mercato.

Articoli correlati

Articolo 1 di 4