TECNOLOGIA SOLIDALE

Intelligenza artificiale, i sei principi del Parlamento europeo. E noi?

A Bruxelles è stata approvata in commissione la proposta di legge europea sull’intelligenza artificiale, che a metà giugno sarà votata dal Parlamento. Un richiamo alla responsabilità di tutti noi, a cominciare da investitori e developer. Il tema al centro di un incontro della Fondazione Pensiero Solido il 19 maggio a Milano

Pubblicato il 12 Mag 2023

shutterstock_510170158 (1)
Intelligenza artificiale, la notizia della settimana è l’approvazione della proposta di legge europea fatta giovedi 11 maggio dalle commissioni Mercato interno e Libertà civili del Parlamento europeo.
Una delle novità più importanti aggiunte al testo originario proposto dalla Commissione europea nell’aprile 2021 sono i sei principi generali (art. 4a General principles applicable to all AI systems) che tutti gli operatori dell’Intelligenza artificiale dovranno rispettare nello sviluppo e nell’utilizzo dei sistemi di AI.

Intelligenza artificiale, i sei principi del Parlamento europeo

Eccoli qui:

1. Intervento umano e supervisione

“I sistemi di IA devono essere sviluppati e utilizzati come uno strumento al servizio delle persone, rispettando la dignità umana e l’autonomia personale e funzionando in modo tale da poter essere adeguatamente controllato e supervisionato dagli esseri umani”.

2. Solidità tecnica e sicurezza

“I sistemi di IA devono essere sviluppati e utilizzati in modo da ridurre al minimo i danni non intenzionali e imprevisti, nonché essere adeguati in caso di problemi non intenzionali ed essere resilienti contro i tentativi di alterare l’uso o le prestazioni del sistema di IA in modo da consentirne l’uso illecito da parte di terzi malintenzionati”.

3. Privacy e governance dei dati

“I sistemi di IA devono essere sviluppati e utilizzati nel rispetto delle norme vigenti in materia di privacy e protezione dei dati, trattando i dati in modo tale da soddisfare standard elevati in termini di qualità e integrità”.

4. Trasparenza

“I sistemi di IA devono essere sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, rendendo al tempo stesso consapevoli gli esseri umani che comunicano o interagiscono con un sistema di IA e informando debitamente gli utenti delle capacità e dei limiti di tale sistema IA e le persone interessate sui loro diritti”.

5. Diversità, non discriminazione ed equità

“I sistemi di IA devono essere sviluppati e utilizzati in modo da includere attori diversi e promuovere la parità di accesso, l’uguaglianza di genere e la diversità culturale, evitando impatti discriminatori e pregiudizi sleali vietati dall’Unione o dalle leggi nazionali”.

6. Benessere sociale e ambientale

“I sistemi di IA devono essere sviluppati e utilizzati in modo sostenibile e rispettoso dell’ambiente, nonché in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando al contempo gli impatti a lungo termine sull’individuo, sulla società e sulla democrazia”.

Le responsabilità di chi finanzia e degli sviluppatori

Perché questi principi sono importanti? Perché richiamano sia chi finanzia sia chi scrive i software di AI alla responsabilità che sono chiamati ad avere nei confronti dell’intera società. Il primo punto sta nell’essere consapevoli che non tutto ciò che è tecnicamente possibile lo è anche eticamente e umanamente. Per questo, dato che l’intelligenza artificiale non esiste in natura ma è una costruzione di noi esseri umani, accanto alle norme occorrono consapevolezza e responsabilità da parte di chi la produce.
Non è un discorso da anime candide è il presupposto per avere una intelligenza artificiale davvero solida(le) e quindi realmente generativa. È lo stesso invito che il presidente Biden ha formulato accogliendo il 4 maggio alla Casa Bianca i rappresentanti di alcune grandi aziende tecnologiche, invitandoli ad assicurarsi che i loro prodotti siano sicuri prima di essere resi pubblici.

Intelligenza artificiale. E noi? L’incontro della Fondazione Pensiero Solido

Di questi temi e delle opportunità che l’intelligenza artificiale porta con sé ragioneremo venerdì 19 maggio pomeriggio a Milano nel corso di “Intelligenza artificiale. E noi? Sfide, opportunità, responsabilità”, pomeriggio di studio organizzato dalla Fondazione Pensiero Solido.
Inizieremo con la presentazione della ricerca Youtrend/Fondazione Pensiero Solido “Gli italiani e l’intelligenza artificiale. Cosa ne pensano, cosa si aspettano” e continueremo con gli interventi di 25 relatori. Ci saranno i rappresentanti delle grandi aziende tecnologiche (Google, Amazon Web Services, Microsoft, IBM, Meta), importanti realtà come CNR e IIT e alcune delle principali università italiane, Sapienza, LUISS, Politecnico e Università Cattolica di Milano.
Dialogheremo con persone che operano e riflettono sulle opportunità e sulle conseguenze pratiche ed etiche dell’uso dell’intelligenza artificiale. Avremo con noi alcune aziende di AI, che prefigurano una possibile “via italiana” all’intelligenza artificiale.
Sarà un pomeriggio di intenso lavoro e di approfondimento delle sfide dell’intelligenza artificiale, che ci riguardano tutti. In attesa che l’Unione europea completi l’iter della legge (prima che possano iniziare i negoziati con il Consiglio Ue sulla forma finale della legge, il testo deve essere approvato dall’intero Parlamento nella sessione del 12-15 giugno), chi può ha l’obbligo di approfondire e comunicare.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Antonio Palmieri
Antonio Palmieri

Antonio Palmieri, fondatore e presidente di Fondazione Pensiero Solido. Sposato, due figli, milanese, interista. Dal 1988 si occupa di comunicazione, comunicazione politica, formazione, innovazione digitale e sociale. Già deputato di Forza Italia

Articoli correlati

Articolo 1 di 4