L'INTERVENTO

AI e aziende: è il momento di adottare programmi di Intelligenza Artificiale Responsabile

Per affrontare le nuove regolamentazioni e poter usare al meglio gli strumenti di AI, per le aziende sarà decisivo implementare un programma di Intelligenza Artificiale Responsabile: di cosa si tratta e quali i vantaggi

Pubblicato il 01 Giu 2023

Intelligenza Artificiale Responsabile

La corsa alla scoperta e all’adozione dell’intelligenza Artificiale (AI), nel panorama attuale, si è fin da subito associata ad una rinnovata attenzione al quadro normativo: 60 Paesi e territori nel mondo stanno cominciando a disegnare il quadro per l’utilizzo dell’intelligenza artificiale, con oltre 800 misure in analisi.

Per affrontare le regolamentazioni e trarre il maggior vantaggio possibile dagli strumenti di AI, sul fronte aziendale, può essere decisivo implementare un programma di Intelligenza Artificiale Responsabile (RAI), cioè un programma fondato su principi volti a garantire la responsabilità, la trasparenza, la privacy e la sicurezza, nonché l’equità e l’inclusione nel modo in cui si sviluppano e si utilizzano gli algoritmi.

Perché l’intelligenza artificiale responsabile conviene alle aziende?

L’intelligenza artificiale responsabile, infatti, benché valutata da molti solo in ottica di compliance, rappresenta un insieme di fattori abilitanti verso l’innovazione. L’approccio responsabile all’Intelligenza Artificiale può rappresentare il quadro di riferimento sia per chi crea strumenti di intelligenza artificiale che per chi li utilizza, aiutando entrambe le parti a confrontarsi positivamente con la regolamentazione. Questo aspetto è specialmente rilevante per le aziende italiane che si trovano a operare in un contesto regolamentare molto attento alle dinamiche di sviluppo delle nuove tecnologie e del loro impatto sulla privacy degli utenti.

Basti pensare al blocco di ChatGPT da parte del Garante della Privacy: anche se l’accesso è stato riattivato a fine aprile, questa iniziativa potrebbe fare da apripista per i lavori di una task force europea sul tema. Definire un quadro comune e condiviso potrebbe quindi richiedere del tempo, ma le aziende possono contribuire a plasmare il panorama normativo piuttosto che esserne sopraffatte, attivandosi nell’immediato.

Intelligenza artificale, le proposte normative

L’AI Act europeo, anche se ancora in fase di proposta, è il primo regolamento che istituisce un quadro giuridico volto a regolare lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale in conformità con i valori e i diritti costituzionali dell’UE. La proposta di regolamentazione stabilisce delle regole per l’immissione sul mercato e per l’uso dei sistemi di intelligenza artificiale, vieta pratiche come la sorveglianza biometrica di massa e la valutazione del credito basata sul social scoring e propone sanzioni pecuniarie per un massimo del 6% del fatturato alle aziende che attuano pratiche vietate.

L’Italia, nello specifico, ha lanciato il “Programma strategico per l’intelligenza artificiale 2022-2024”, che delinea 24 politiche per accelerare l’innovazione e le potenzialità dell’AI nel tessuto economico e sociale del Paese, promuovendo un AI antropocentrica, affidabile e sostenibile.

AI e aziende: chi è pronto alla nuova normativa?

Sebbene la corsa alla regolamentazione dell’AI non sia una sorpresa, da un rapporto annuale di BCG ormai alla sua sesta edizione, il Digital Acceleration Index (DAI), emerge però che solo il 28% dei 2.700 dirigenti intervistati consideri la propria organizzazione pronta ad affrontare le nuove normative.

L’Italia si dice preparata: con il 49% di dirigenti convinti della necessità di una regolamentazione per l’uso dell’AI, contro la media europea del 35%. Il 34% dei dirigenti afferma inoltre di avere già un Chief AI operativo all’interno della propria organizzazione.

Per le aziende cogliere tempestivamente questo momento è fondamentale e ciò implica di possedere già un’adeguata maturità digitale. Il Digital Acceleration Index rivela delle ovvie differenze tra le aziende: quelle classificate nel quartile superiore hanno una maggiore capacità di adattamento e quasi 6 volte più probabilità di essere pienamente preparate alla regolamentazione dell’AI, rispetto a quelle che si trovano nel quartile inferiore.

Se a livello globale, poi, i settori delle telecomunicazioni, del tech e dei beni di consumo hanno riportato i livelli più alti di preparazione, mentre il settore dell’energia e quello pubblico sono in coda. In Italia la situazione cambia: le aziende del settore energetico risultano essere le più preparate alla regolamentazione AI (89%), insieme alle realtà finanziarie (87.5%) e tecnologiche (83%). Seguono, in coda, i settori assicurativo e dei beni di consumo.

Intelligenza artificiale responsabile, come implementare programmi in azienda

Non esiste un approccio  unico per implementare programmi di intelligenza artificiale responsabile, ma certamente esistono leve fondamentali che non possono essere ignorate dalle aziende, come ad esempio, la necessità che la leadership aziendale sia responsabilizzata e pienamente coinvolta nello sviluppo di strategie che traggono benefici dall’AI, garantendo la conformità alle normative emergenti.

È altrettanto importante costruire e diffondere in azienda un quadro etico dell’AI per assicurarsi di soddisfare i nuovi requisiti senza ostacolare obiettivi e investimenti. Due terzi delle aziende che hanno partecipato all’indagine BCG sui livelli di maturità digitale (DAI), stanno già compiendo passi importanti verso la creazione di un quadro di riferimento di questo tipo, ad esempio garantendo che gli sviluppatori comprendano fin dall’inizio gli obiettivi di un sistema e i risultati che esso genera, ma anche informando gli utenti su come i sistemi di AI utilizzano i loro dati.

Va poi aggiunto il coinvolgimento umano nei processi e nelle piattaforme di AI: le aziende più mature dal punto di vista digitale sono avanti anche in questo, dato che hanno più del doppio delle probabilità rispetto ai colleghi, di attribuire un alto grado di importanza a pratiche fondamentali (come cicli di feedback e meccanismi di revisione) e di applicarle in modo coerente.

Infine, occorre garantire che i principi fondamentali come trasparenza e inclusione siano incorporati nei processi di sviluppo e di adozione degli algoritmi. Le aziende dovrebbero sviluppare degli strumenti per condurre periodiche revisioni end-to-end, non solo degli algoritmi, ma anche dei processi e dei risultati aziendali.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Enzo Barba
Enzo Barba

Articoli correlati

Articolo 1 di 4