“Una trasformazione sana parte dai processi, dal modo in cui lavoriamo, prendiamo decisioni, gestiamo i flussi di informazioni e di valore. Spesso si cerca di “iniettare” l’IA in processi esistenti, sperando che questo basti a migliorarli o peggio si “comprano” soluzioni senza guardare ai processi e alle persone che li governano.. Ma non funziona così. Se l’intelligenza artificiale non rende le persone più capaci di svolgere il proprio lavoro, allora non è innovazione: è alienazione.”
Un pensiero interessante il suo, caro Roberto Marseglia, imprenditore del digitale e componente della commissione tecnica dell’Osservatorio Permanente per l’Adozione dell’Intelligenza Artificiale in Impresa promosso da Aspen Institute Italia insieme a Intesa San Paolo. Lei è ottimista?
Sono realista, guardo i dati. I risultati del report annuale dell’Osservatorio Permanente per l’Adozione dell’Intelligenza Artificiale che abbiamo presentato il 10 luglio alla Camera ci dicono che su 54 imprese di caratura nazionale interrogate il 67% dichiara di stare intraprendendo percorsi di integrazione dell’IA: il doppio rispetto all’anno scorso.”
Sarebbe stato auspicabile il 100%…
D’altra parte lo scenario rimane complesso a partire dall’aspetto legato alle competenze.”
Dopo una fase iniziale di grande entusiasmo verso l’intelligenza artificiale, oggi sembra si respiri un clima più cauto. L’idea che l’IA avrebbe rivoluzionato tutto in maniera semplice e naturale e in tempi brevissimi, si è scontrata con la complessità della realtà. Questo non vuol dire che siamo fermi, anzi.
Certamente. L’approccio al rischio e la minore competenza tecnologica diffusa rispetto incidono. Ciò che manca, in molti casi, è una cornice strategica: modelli operativi, architetture digitali, casi d’uso mirati, competenze interne. Senza questi elementi, l’IA resta astratta, e le imprese faticano a tradurla in vantaggi concreti.”
Bisogna cambiare la domanda. Passare da “siamo pronti a usare l’IA?”, a “come costruiamo le condizioni per farlo davvero, in modo responsabile e sostenibile?”. Occorre una visione più fredda, più analitica, più sistemica…
Bisogna conoscere bene i limiti dell’IA, perché solo conoscendoli possiamo sfruttarne davvero le potenzialità.
Quali limiti vede?
Almeno quattro. Il primo è un limite tecnologico, legato alla maturità dei modelli, alla loro trasparenza, alla sicurezza, all’adattabilità. I modelli sono sempre più potenti, ma restano fragili in contesti dinamici e poco strutturati.
Poi?
Vi è un limite applicativo. Come dicevo all’inizio, l’IA, da sola, non migliora i processi: bisogna ripensarli, semplificarli, standardizzarli. Molti progetti falliscono non per limiti del software, ma per rigidità organizzativa.
Lei sta dicendo che la tecnologia viene per ultima?
Chi parte dalla tecnologia rischia di innescare resistenza, fallimenti e sprechi di capitale umano. Chi parte dalle persone e dai processi, invece, può costruire progetti che durano, che si adattano, che crescono nel tempo. L’IA, così, diventa invisibile nel miglior senso del termine: non si impone, ma si integra. Non prende il posto, ma potenzia il ruolo. E questa è, forse, la più importante differenza tra un progetto modaiolo e una trasformazione vera.
Buon punto. Torniamo ai limiti. Quali sono gli ultimi due?
Vi è il limite normativo. L’Europa ha cercato di anticipare i tempi con l’AI Act, che però rischia di rimanere un requisito burocratico se non viene accompagnato da cultura e visione. È un passo importante, avrà effetti positivi soprattutto in termini di trasparenza, sicurezza e diritti dei cittadini. Ma l’AI Act, per come è strutturato, rischia di diventare, per molte aziende, solo un nuovo vincolo di compliance. Qualcosa da inserire nelle procedure legali, da gestire con i consulenti, da “barrare” come un requisito.
Il rischio è che ci si fermi lì e nel frattempo Cina e USA corrono. Andiamo avanti. Conoscendola, so già che il quarto limite ha a che fare con l’etica…
Questo è il limite più delicato. Ogni tecnologia genera nuove responsabilità. È necessario evitare derive che vadano contro i principi fondamentali del vivere comune: rispetto, dignità, equità, trasparenza. Lo sviluppo tecnologico non può mai essere disgiunto da una riflessione sui fini e sulle conseguenze. E questa riflessione non può essere solo degli esperti: deve diventare patrimonio comune, condiviso tra tecnologi, manager, amministratori, cittadini.
A mio giudizio l’intelligenza artificiale generativa e conversazionale non è una tecnologia neutra. Certamente la si può usare per il bene o per il male, come ogni artefatto umano; tuttavia, qui abbiamo per la prima volta a che fare con una tecnologia che entra nell’intimo della nostra umanità. Modifica il nostro modo di pensare, di imparare, di lavorare, di relazionarci con gli altri…
Nel 2023 l’economista Daron Acemoglu, insieme a Simon Johnson, ha pubblicato un libro fondamentale: Power and Progress – Our Thousand-Year Struggle Over Technology and Prosperity. È un testo che tutti dovrebbero leggere, perché affronta la grande questione di fondo: il progresso tecnologico genera benessere solo se è guidato da una visione politica, sociale e morale chiara. Altrimenti, tende a concentrare il potere, a spostare ricchezza verso pochi, a creare nuove disuguaglianze, a polarizzare.
Acemoglu si chiede se l’intelligenza artificiale sarà una tecnologia che porterà automation (cioè alla sostituzione dell’uomo) o augmentation (cioè al suo potenziamento). La risposta, dice, non è scritta nel codice. Dipende dalle scelte che faremo come società: dai governi, dalle imprese, dagli enti del terzo settore, ma anche dai cittadini.
Se vogliamo un futuro di augmentation, dobbiamo lavorare per costruirlo. Non possiamo limitarci a subirlo, sperando che vada tutto per il meglio e la prima leva per farlo è una sola: la formazione. Serve una formazione diffusa, multidisciplinare, inclusiva. Non basta più “formare i tecnici”: serve formare dirigenti, funzionari pubblici, imprenditori, sindacalisti, cittadini. Serve che – anche chi non programma software – abbia una cultura di base sull’IA, perché, come ha detto lei prima, essa impatta sull’umano.
Insomma, serve un pensiero solido.
Proprio così. Il nostro Osservatorio permanente e la sua Fondazione Pensiero Solido hanno un grande lavoro da fare…Vanno rifiutati due atteggiamenti opposti e ugualmente sbagliati: l’entusiasmo incontrollato, che dipinge l’IA come una soluzione miracolosa; il pessimismo difensivo, che la considera una minaccia da contenere, se non da evitare. Entrambi rivelano una profonda mancanza di comprensione di cosa sia davvero l’intelligenza artificiale. Serve un approccio multidisciplinare che esprima il punto di vista di voci diverse.








