tecnologia solidale

L’intelligenza artificiale può ampliare diritti e mercato, ma solo se progettata in modo inclusivo



Indirizzo copiato

È il messaggio che emerge dal convegno “IA, intelligenza accessibile?” organizzato in occasione dell’anniversario della Legge Stanca, la prima in Europa sull’accessibilità digitale. La sfida adesso non è tecnologica ma culturale: ecco 13 punti di vista sul tema

Pubblicato il 16 gen 2026

Antonio Palmieri

Fondatore e presidente di Fondazione Pensiero Solido



accessibilità digitale

A meno che non sia una ricorrenza personale, per quasi tutti gli italiani il 9 gennaio è un giorno come un altro. 

Per chi invece si occupa di accessibilità digitale – vale a dire la rimozione delle barriere architettoniche nel web – è un giorno importante: il 9 gennaio 2004 veniva approvata definitivamente e all’unanimità la Legge Stanca, la prima legge sull’accessibiltà in Europa, esito di un percorso avviato a novembre 2002 con la proposta di legge Campa-Palmieri. 

Da allora molta strada è stata fatta sul piano normativo: l’accessibilità digitale ora è un obbligo di legge per tutti. Purtroppo molta ne rimane ancora da fare in concreto, perché non abbiamo ancora vinto la battaglia culturale: far capire che l’accessibilità è una opportunità, anzi due. L’opportunità di dare alle persone con disabilità il diritto di vivere in dignità e libertà l’era digitale; l’opportunità per le imprese di comprendere che, nell’era della longevità, prodotti digitali accessibili serviranno a un numero sempre maggiore di persone e che un servizio digitale accessibile è anche più fruibile da parte di tutti.

Ne abbiamo ragionato lo scorso 9 gennaio (!) nell’incontro “IA, INTELLIGENZA ACCESSIBILE?”, organizzato per il terzo anno consecutivo da IWA Italy, Accessibility Days e Fondazione Pensiero Solido. Il punto di partenza è chiaro: l’accessibilità digitale è una questione che riguarda il modo in cui progettiamo il digitale e, di conseguenza, il tipo di società che vogliamo costruire. Se vogliamo, è una questione politica, nel senso più alto del termine.

Non è un tema tecnico, né un insieme di norme e adempimenti. A questo riguardo, l’intelligenza artificiale generativa, se integrata nella fase progettuale del sito o dell’app, e se ben usata, semplifica l’accessibilità dei testi, delle immagini, del linguaggio, della scrittura del codice. 

Ogni relatore e ogni relatrice ha portato il contributo della propria esperienza e visione per dire come l’intelligenza artificiale possa (e debba) essere davvero inclusiva. Vediamoli brevemente e, se vuoi approfondire, vai al link che trovi indicato per ciascun di loro.

Mario Nobile, Direttore AgID, ha aperto i lavori sottolineando la molteplicità dei modelli IA, l’importanza della spiegabilità e il diritto di ognuno a bilanciare benefici e privacy. L’IA non è un oggetto finito, ma un “cantiere”: non esiste un’applicazione definita e delineata, ma si lavora su “orchestratori” che scelgono modelli, dati e strumenti in modo dinamico.

Roberto Scano (AccessibleEU) ha insistito sul punto: l’intelligenza artificiale, per essere intelligente, deve essere accessibile. E ha aggiunto un monito necessario: evitare che l’IA identifichi la disabilità e crei “porte di servizio”. L’accessibilità digitale non è un trattamento speciale: è parità di condizioni.

Alessandra Santacroce, presidente Fondazione IBM, ha raccontato la cultura inclusiva by design di IBM e mostrato come l’accessibilità non è solo “bontà”, ma produzione di valore. Non è un costo, non è un favore, è un valore nell’accezione più ampia del termine. Il progetto “Limpide Letture”, realizzato con ASPHI, lo dimostra: quando l’IA è progettata bene, apre possibilità, non le chiude.

Nicola Gencarelli (responsabile ricerca Fondazione ASPHI) ha presentato tre progetti concreti realizzati dalla Fondazione e ha invitato tutti a “sporcarsi le mani”, perché non serve a niente aspettare che lo facciano altri: dobbiamo costruire accessibilità, passare dall’attesa all’azione.

Cristina Mussinelli (segretario generale della Fondazione LIA) ha illustrato l’uso dell’IA per generare descrizioni alternative di immagini nei libri, specie scolastici e ha mostrato cosa significa accessibilità “by design” nel mondo editoriale, a partire dalla descrizione delle immagini nell’editoria scolastica, una procedura difficile, ma fondamentale per gli studenti non vedenti.

Ernesto Belisario ha invitato la pubblica amministrazione a usare l’intelligenza artificiale generativa con ruolo pedagogico: per semplificare linguaggio burocratico, per rendere i servizi più accessibili e per istituire un registro pubblico dei sistemi IA utilizzati dalle amministrazioni.

Fabrizio Caccavello (esperto di accessibilità, coordinatore di webaccessibile.org) ha ricordato che l’efficienza della intelligenza artificiale non dipende soltanto dalla quantità di dati, ma dalla corretta semantica dei contenuti creati dagli sviluppatori, i quali restano i primi responsabili della correttezza del processo.

Sonia Montegiove (giornalista e consulente) ha portato la sua esperienza nella scuola: in questo ambito gli usi sono molteplici: per personalizzare materiali di studio, semplificare il linguaggio e superare le barriere linguistiche e combattere gli stereotipi di genere nei libri di testo. 

Lorenzo Cagioni (Data AI Architect e leader per l’inclusione di Google) ha spiegato come l’intelligenza artificiale stia rivoluzionando l’accessibilità universale di Google: Project Euphonia consente di riconoscere il parlato di persone con disartria. Guided Frame aiuta persone non vedenti a scattare selfie o inquadrare oggetti. Lookout descrive l’ambiente circostante tramite lo smartphone.

Martina Lascialfari (direttrice generale del Fondo Repubblica Digitale) ha ricordato l’impegno del Fondo nel rendere l’intelligenza artificiale accessibile e inclusiva, come i bandi “VIVA” e “CrescerAI” per la formazione e il sostegno a progetti innovativi e gli accordi operativi con Microsoft e Google.

Sauro Cesaretti (Accessibility Days) ha ribadito che l’uso dell’IA non deve diventare una scappatoia per evitare una progettazione inclusiva rigorosa, poiché ciò porterebbe a risultati scadenti. L’adozione dell’IA deve essere guidata da etica, qualità e competenza.

Diana Bernabei ha spiegato i limiti dell’intelligenza artificiale nello sviluppo accessibile: aiuta a scrivere codice più velocemente, ma non rimpiazza la conoscenza profonda delle linee guida sulla accessibilità, le WCAG né i test reali con screen reader. 

Mattia Ducci ha sottolineato che l’intelligenza artificiale stessa può essere vista come una tecnologia assistiva, ad esempio semplificando il linguaggio. Tuttavia essacambia le domande da porci, ma non le elimina: serve sempre lo sguardo critico e l’autonomia consapevole dello sviluppatore.

Alla fine, la questione è semplice: vogliamo un digitale che include o un digitale che esclude? Vogliamo una intelligenza artificiale che aumenta l’inclusione oppure incrementa le disparità? Da “IA, INTELLIGENZA ACCESSIBILE?” è tutto. A te la risposta!

guest

0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x