INNOVATION MANAGEMENT

AI in azienda: il cimitero dei PoC, il dilemma architetturale e la sfida della governance



Indirizzo copiato

Finanziare singoli casi d’uso è stato un errore. L’intelligenza artificiale in azienda richiede una trasformazione dei processi, con scelte architetturali e di governance chiare. E attenzione ai costi nascosti

Pubblicato il 15 dic 2025

Fabio Davide Capasso

Innovation Strategist



AI in azienda

L’innamoramento collettivo per l’Intelligenza Artificiale Generativa è finito. O meglio: è terminata la fase dell’entusiasmo ingenuo, quella guidata dalla Fear of Missing Out (FOMO). Per le grandi aziende italiane, l’AI ha smesso di essere un giocattolo da laboratorio per diventare una leva strategica imprescindibile, ma tremendamente complessa da scalare.

È quanto emerge con chiarezza dal recente workshop “AI Enablement: come governare, scalare e integrare l’AI”, uno degli incontri periodici del programma AITO (AI Transformation Office) di ELIS. Un tavolo di lavoro che, il 3 e 4 dicembre, ha riunito l’élite tecnologica del Paese: oltre 70 professionisti tra CIO e CTO delle principali aziende italiane e multinazionali.

Il messaggio sull’intelligenza artificiale in azienda che esce dalla “stanza dei bottoni” è univoco: il percorso verso un’adozione matura è denso di sfide che la semplice tecnologia non può risolvere da sola. Ecco i cinque pilastri strategici emersi dal confronto che definiranno l’agenda digitale delle imprese italiane nel 2026.

Il “cimitero” dei PoC e il paradosso del ROI

Il dato più brutale discusso durante il workshop è una doccia fredda per chi cerca risultati immediati: su 400 Proof of Concept (PoC) avviati, mediamente solo 3 arrivano in produzione.

Un fallimento? No, un filtro darwiniano necessario. L’errore strategico più comune è stato finanziare singoli casi d’uso dell’intelligenza artificiale slegati tra loro, spesso duplicando sforzi e costi. Oggi il ruolo del CIO cambia radicalmente: non più semplice “abilitatore tecnologico”, ma “orchestratore della trasformazione”.

La domanda non è più “cosa posso fare con l’AI?”, ma “come costruisco una piattaforma capace di reggere il business?

Anche sul fronte del ritorno economico (ROI), la narrazione sull’intelligenza artificiale in azienda sta cambiando. L’Everyday AI (come i vari Copilot) migliora la produttività individuale (“ci ho messo 30 minuti invece di un’ora”), ma questo risparmio di tempo ha spesso un ROI finanziario nullo per l’azienda se non è accompagnato da una riorganizzazione dei processi.

Il vero valore si sblocca solo quando l’AI reingegnerizza il modo di lavorare, non solo quando velocizza il singolo task. Ma anche quando il ROI è chiaro, le sfide architetturali possono fermare tutto. Il primo dilemma è quasi filosofico: costruire in casa o comprare?

2. Il grande dilemma architetturale: “Built” o “Embedded”?

«Le aziende si trovano di fronte a un bivio fondamentale», ha spiegato un esperto durante il suo intervento, «e tentare di percorrere entrambe le strade è una trappola che porta solo a duplicare i costi». Le due vie sono:

  • Embedded AI: Acquistare software con AI già integrata (es. nel CRM o nell’ERP).
    • Pro: Alta velocità di implementazione, costo iniziale basso.
    • Contro: Crea silos di dati e genera un forte lock-in applicativo.
  • Built AI: Costruire piattaforme proprietarie (Data Hub centrali).
    • Pro: Controllo totale, orchestrazione completa dei dati a 360°, scalabilità trasversale.
    • Contro: Tempi di sviluppo lunghi e costi iniziali elevati.

La raccomandazione emersa è la cautela.

Il mercato dell’AI è ancora “adolescenziale”. Secondo le stime condivise, la prontezza tecnologica è al 45%, ma la preparazione umana si ferma al 25%

In questo scenario fluido, legarsi mani e piedi a un unico vendor è rischioso. La vera sfida, però, non è solo scegliere l’architettura, ma anche sostenerne il peso.

3. La bolletta energetica (e i costi che non ti aspetti)

Mentre si discute di algoritmi, i data center iniziano a scottare. L’infrastruttura AI ha un peso specifico insostenibile se non gestito con una logica di FinOps. Sebbene i numeri esatti varino, è confermato da più fonti che i rack per l’AI possono richiedere oltre 60 kW, un ordine di grandezza superiore rispetto ai tradizionali 5-10 kW. Non è un caso che Gartner stimi che il consumo energetico dei data center triplicherà entro il 2030 proprio a causa dell’AI.

Il vero iceberg è il TCO (Total Cost of Ownership). Il costo dell’AI non è solo quello delle licenze o dell’hardware

Ci sono i “costi nascosti” dello scaling che emergono dopo il lancio: il monitoraggio di un modello in produzione può costare fino a 100.000 euro l’anno, senza contare i costi reputazionali in caso di errori e la necessità di una revisione costante dei dati.

Una complessità che spinge verso architetture più intelligenti e autonome.

4. Il futuro è “Agentico” (e arriverà prima del previsto)

«Stiamo passando dalla generazione di contenuti all’esecuzione proattiva di processi», ha sottolineato un altro relatore. Se oggi usiamo l’AI tramite prompt (chat), il domani appartiene all’Orchestrazione Agentica.

Il modello vincente prevede un “agente supervisore” che coordina una squadra di “agenti specializzati” verticali (uno recupera i documenti, uno analizza i dati, uno esegue la procedura).

È un approccio gerarchico che permette di superare i limiti dei laboratori sperimentali, con supervisori che possono a loro volta coordinare altri supervisori, creando una vera e propria catena di comando intelligente.

Le proiezioni sono impressionanti: entro il 2028, il 90% delle transazioni B2B saranno gestite da agenti AI, e Gartner prevede che entro il 2029 l’AI risolverà autonomamente l’80% delle problematiche comuni di customer service. Ma un potere così grande richiede un controllo ferreo.

5. Governance: l’antidoto al caos

Per evitare che l’AI generi entropia e un’esplosione dei costi, le aziende stanno correndo ai ripari strutturando modelli di governance centralizzati. Il mantra è “AI Operating Model”: servono strutture dedicate come i Center of Excellence (CoE) per governare la proliferazione degli agenti e garantire la sicurezza tramite meccanismi di RBAC (Role-Based Access Control) gestiti centralmente.

La governance è anche l’unico scudo contro i nuovi rischi

Le “allucinazioni” dei modelli (risposte plausibili ma false) non sono un bug, ma una caratteristica intrinseca che va gestita con un monitoraggio costante e la definizione di soglie di accettazione del rischio.

A questo si aggiungono i rischi di compliance normativa (AI Act, GDPR) e sicurezza, come il prompt injection. Gestire il rischio non significa solo mettere regole, ma educare l’organizzazione a un uso critico della tecnologia.

L’integrazione dell’AI in azienda è una maratona strategica

Il messaggio finale del workshop AITO è chiaro: l’integrazione dell’AI non è una gara di velocità, ma una maratona strategica che richiede visione. Le aziende che vinceranno la sfida non saranno quelle con l’algoritmo più potente, ma quelle capaci di orchestrare meglio tecnologia, processi e persone. La fase della FOMO è finita; ora inizia quella della governance consapevole.

La vera domanda per il 2026 non è più se usare l’AI, ma chi, in azienda, avrà il coraggio di governarla. La maratona è appena iniziata e per vincerla serve un approccio collaborativo. Un programma come AITO contribuisce attivamente a questa cultura, accelerando l’AI Adoption in modo sicuro e sostenibile.

guest

0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x