Dal 2 febbraio di quest’anno la legge obbliga tutte le imprese ad avviare dei percorsi formativi sull’intelligenza artificiale. È quanto prescrive l’articolo 4 dell’AI Act, il Regolamento europeo sull’intelligenza artificiale. Questo articolo, denominato “Alfabetizzazione in materia di IA”, recita infatti così: “I fornitori e i deployer dei sistemi di IA adottano misure per garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto”.
Nel linguaggio dell’IA i “fornitori” sono coloro che producono modelli di intelligenza artificiale, mentre i deployer sono coloro che li utilizzano per scopi professionali. In pratica, l’articolo 4 chiede a tutte le aziende di attivare dei corsi di formazione interni per spiegare ai dipendenti cos’è l’intelligenza artificiale, come deve essere usata e quali sono i rischi sui quali porre attenzione.
Indice degli argomenti
Articolo 4 dell’AI Act: un passo fondamentale
L’articolo 4 non è un’appendice al Regolamento dell’Unione Europea, tutt’altro! E’ stato infatti uno dei primi articoli ad essere entrato in vigore. L’AI Act è stato approvato ufficialmente il 1° agosto 2024, ma prevede un’implementazione graduale per consentire ad aziende e istituzioni di adeguarsi alle nuove disposizioni. Tale implementazione graduale si concluderà solamente il 2 agosto 2027 con gli obblighi a carico di chi produce o utilizza i cosiddetti modelli di IA a rischio elevato.
Il 2 febbraio 2025 sono invece entrate in vigore le norme che vietano in tutto il territorio dell’Unione particolari la produzione e l’utilizzo di specifici modelli di intelligenza artificiale, ossia quelli che compromettono le libertà fondamentali o che possono nuocere significativamente agli utenti. Tra tali modelli vi sono ad esempio quelli che determinano il “social scoring” dei cittadini o che approfittano delle vulnerabilità delle persone deboli. Il legislatore europeo ha avvertito l’esigenza di bloccare il prima possibile questo tipo di intelligenza artificiale. Contemporaneamente, però, nella stessa data, ha fin da subito posto in vigore gli obblighi relativi alla formazione. La formazione, l’alfabetizzazione digitale, è considerata quindi un’emergenza pari alla necessità di bloccare i modelli di intelligenza artificiale più pericolosi.
Questa stessa necessità è stata ribadita dalla legge 123/2025, appena pubblicata sulla Gazzetta ufficiale: “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” che conferma tutto l’impianto dell’AI Act.
Perché la formazione è cruciale, anche senza sanzioni dirette
L’alfabetizzazione in materia di IA da parte delle aziende per i loro dipendenti è quindi un obbligo urgente e già in vigore. C’è da dire tuttavia che l’Ai Act, mentre stabilisce delle sanzioni gravi per chi continua ad usare o programmare i modelli di AI vietati, non prevede sanzioni per chi non attua i percorsi di alfabetizzazione imposti dall’articolo 4.
Attenzione però: Il fatto che ad oggi non siano previste sanzioni non vuole dire che tale obbligo sia meno rilevante, anche perché sia l’AI Act che la legge italiana stabiliscono anche una serie di responsabilità per i danni provocati dai modelli di intelligenza artificiale. In altre parole, se un modello di IA causa dei problemi (anche semplicemente di tipo reputazionale), perdite di dati, o comportamenti che danneggiano un’azienda, la responsabilità può essere attribuita sia a chi ha fornito il modello che a chi lo ha utilizzato in maniera inappropriata. Tuttavia, il peso delle responsabilità può essere differente se, ad esempio, il fornitore del modello ha trasmesso all’utilizzatore quelle informazioni utili per evitare i rischi.
Nel caso di problemi, quindi, l’aver attuato i percorsi di alfabetizzazione diventa un fattore importante per vedere ridotta la responsabilità aziendale. Non a caso, l’articolo 4 specifica che l’alfabetizzazione deve esser fornita “, prendendo in considerazione le loro conoscenze tecniche [del personale], la loro esperienza, istruzione e formazione, nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati”. Ciò che si chiede, quindi, è che questi corsi siano ritagliati sulle caratteristiche dei destinatari, tenendo conto anche di come i modelli di IA saranno utilizzati. Alfabetizzare vuole così dire anche introdurre una serie di misure volte a ridurre la probabilità dei danni causabili dalla IA.
Le insidie nell’uso degli LLM in azienda: il caso Deloitte
Un punto importante da tenere in considerazione è che i rischi nell’utilizzare i modelli di intelligenza artificiale non sono teorici, ma concreti. Mi riferisco in particolare agli LLM, ossia ai modelli linguistici di grandi dimensioni come ChatGPT. Questi modelli sono meravigliosi e non passa giorno senza che se ne comprenda l’utilità in azienda sotto molteplici aspetti, ma presentano, tra le altre, due inside specifiche.
La prima è che il loro utilizzo è estremamente semplice. Chiunque è infatti in grado di usarli digitando dei semplici prompt (e questo anche se esiste una disciplina, la prompt engineering, che insegna a scrivere dei prompt ottimali).
La seconda insidia è che questi modelli producono le cosiddette allucinazioni, ossia riposte errate, ma plausibili. Gli LLM sono costruiti con tecniche di tipo statistico, e quindi è praticamente impossibile ridurre a zero il rischio di allucinazioni. Questo significa che chiunque li utilizza deve essere consapevole di questo rischio, e deve conoscere le tecniche per ridurre la probabilità di avere delle allucinazioni. Si pensi che un colosso della consulenza come Deloitte è stata condannata al pagamento di 440.000 dollari per aver venduto al governo australiano un report contenente allucinazioni, ossia citazioni a documenti inesistenti, e questo perché aveva utilizzato un LLM senza introdurre quelle accortezze necessarie che dei corsi di alfabetizzazione possono mettere in campo.
AI Act e formazione: tutte le aziende sono coinvolte
L’articolo 4 dell’AI Act coinvolge la quasi totalità delle imprese. Ci si potrebbe infatti chiedere se l’obbligo di alfabetizzazione riguardi anche quelle Società che non usano l’intelligenza artificiale se non saltuariamente, chiedendo ad esempio semplicemente a ChatGPT o Copilot di assisterle nell’elaborazione di testi. L’Unione Europea ha risposto con delle FAQ proprio a questo tipo di domande specificando che anche in questi casi, dove quindi l’uso dell’IA è limitato agli LLM, l’obbligo permane invariato.
Oltre ai corsi, misure efficaci di alfabetizzazione potrebbero essere la redazione di linee guida interne, workshop pratici, sessioni informative, la messa a disposizione di materiale formativo, ma sicuramente l’organizzazione di vere e proprie lezioni rimane l’approccio più diretto ed efficace.
Da obbligo ad opportunità di crescita
Cosa devono contenere questi corsi? La risposta è semplice. Una prima parte deve spiegare a grandi linee cos’è e come funziona l’intelligenza artificiale (un campo che va ben al di là degli LLM). Poi si devono approfondire i rischi legati all’uso dell’IA con un occhio alla normativa e alla compliance richiesta alle aziende. Infine, questi corsi possono essere un’occasione preziosa per mostrare sul campo quegli strumenti di IA che sono preziosi per le imprese, partendo da applicazioni concrete sulla base del settore di business.
In questo modo l’applicazione dell’articolo 4 non diventa più l’adempimento a un fastidioso obbligo normativo, ma un’occasione per migliorare gli strumenti a disposizione della propria azienda, con benefici sulla sua competitività.







