Per gran parte del 2023 e del 2024 il dibattito sull’Intelligenza Artificiale Generativa nelle aziende è rimasto sospeso tra entusiasmo messianico e scetticismo difensivo. Da un lato c’era chi prometteva la rivoluzione totale entro il venerdì pomeriggio; dall’altro, chi bollava il tutto come una bolla speculativa, destinata a sgonfiarsi non appena fosse passato l’effetto novità.
La pubblicazione del report “The State of Enterprise AI 2025″ di OpenAI chiude definitivamente questa fase. Non siamo più nel campo delle opinioni. Siamo nel campo della metrica industriale.
I dati emersi dal report, incrociati con le tendenze macroeconomiche del settore, delineano uno scenario operativo radicalmente diverso rispetto a dodici mesi fa. La fase “sandbox” — quella dei progetti pilota isolati, delle licenze assegnate a macchia di leopardo e dell’utilizzo destrutturato — si è conclusa. Siamo entrati nella fase di industrializzazione.
L’intelligenza artificiale non è più un software che si “usa”. È un layer infrastrutturale su cui le aziende stanno iniziando a costruire la propria operatività.
Il 2025 è stato l’anno dell’AI invisibile e necessaria a livello aziendale. La domanda per i board aziendali e per gli imprenditori non deve più essere “se” adottare queste tecnologie, e nemmeno “quale tool usare”.
La domanda deve essere: come stiamo ristrutturando i nostri processi affinché l’intelligenza artificiale sia il motore e non l’accessorio?
Perché i dati parlano chiaro: chi aspetta che la tecnologia si “stabilizzi”, sta in realtà aspettando di diventare obsoleto.
Di seguito, un’analisi tecnica dei cinque pilastri emersi dal report e delle loro implicazioni per il business nel prossimo triennio.
Indice degli argomenti
1. AI, la metrica dell’adozione: intensità vs copertura
Il primo dato che colpisce analizzando il report non è tanto la crescita del numero di utenti, quanto la crescita del volume di utilizzo per singolo utente.
I messaggi settimanali su ChatGPT Enterprise sono aumentati di 8 volte nell’ultimo anno. Parallelamente, l’utente medio invia il 30% in più di messaggi rispetto al passato.
Questo indicatore è fondamentale per valutare la “stickiness” (l’adesione) della tecnologia.
In molti cicli tecnologici precedenti (pensiamo ai visori VR in ambito enterprise o ad alcuni strumenti di social collaboration), abbiamo assistito a picchi di adozione seguiti da un rapido declino dell’uso quotidiano una volta svanito l’effetto novità. Qui accade l’opposto.
Più i dipendenti utilizzano lo strumento, più trovano casi d’uso che ne giustificano un impiego ulteriore. L’intelligenza artificiale ha superato la soglia critica dell’utilità marginale: il costo cognitivo di imparare a usarla è ora nettamente inferiore al beneficio operativo che ne deriva. Non è più “Google on steroids” da interrogare una volta al giorno; è diventato un flusso di lavoro continuo.
2. Il salto qualitativo: l’esplosione del “Reasoning”
Se dovessi scegliere un solo dato per riassumere l’intero stato dell’arte del 2025, sceglierei questo: i token di “reasoning” sono aumentati di 320 volte.
Per chi non mastica la terminologia tecnica, è necessario fare chiarezza. I modelli di linguaggio (LLM) possono operare in due modalità. La prima è generativa veloce (predire la parola successiva in base alla probabilità statistica). La seconda è il ragionamento (modelli come o1 oppure o3 che “pensano”, decomponendo un problema complesso in passaggi logici prima di fornire l’output).
Un aumento di 320x in questa specifica metrica segnala un cambiamento profondo nella domanda aziendale.
Le imprese hanno smesso di usare l’AI per generare testo semplice, riassunti di riunioni o email di cortesia. Stanno iniziando a delegare attività ad alto valore cognitivo:
- Analisi di bilancio e forecasting finanziario.
- Debugging complesso e refactoring di codice legacy.
- Pianificazione strategica e analisi di scenari di rischio.
- Interpretazione di clausole legali contrattuali.
Questo shift sposta l’AI dal ruolo di “copywriter stagista” a quello di “analista senior”. Il valore economico estratto da un token di ragionamento è esponenzialmente più alto di quello estratto da un token di generazione testuale. E le aziende lo hanno capito.
3. La fine della “chat” e l’ascesa dei workflow
Un altro mito che i dati sgretolano è quello dell’interfaccia. L’idea che il futuro del lavoro sia passare otto ore a chattare con un bot è superata.
Il report evidenzia una crescita di 19 volte nell’utilizzo di Projects e Custom GPTs.
Le organizzazioni mature stanno capendo che il prompt engineering manuale (scrivere istruzioni in chat ogni volta) non è scalabile. La direzione è l’ingegnerizzazione dei processi.
Le aziende stanno costruendo “agenti” o micro-applicazioni verticali, pre-caricate con il contesto aziendale, le policy di brand, i database proprietari e le istruzioni operative.
In questo scenario, l’intelligenza artificiale diventa invisibile. L’utente non “chatta con l’AI”; l’utente esegue un compito (es. “genera report mensile vendite”) e l’AI agisce nel background richiamando i dati, analizzandoli e formattandoli secondo standard predefiniti.
Siamo passati dall’AI come Tool (strumento manuale) all’AI come Workflow (flusso automatizzato).
4. Il ROI della produttività e l’upskilling istantaneo
Sul fronte del ritorno sull’investimento, i numeri iniziano a diventare pesanti. Il risparmio medio riportato dai lavoratori è di 40-60 minuti al giorno.
Proviamo a contestualizzare questo dato su un’azienda di 100 dipendenti. Parliamo di circa 400-500 ore lavorative risparmiate a settimana. Su base annua, equivale ad avere un mese lavorativo “gratis” per ogni risorsa.
Straordinario, quanto meno a potenziale, in quanto non è detto che sia davvero così per ogni business in ogni settore. Tuttavia c’è un dato ancora più interessante del risparmio di tempo ciòè l’abilitazione di nuove competenze.
Tre quarti degli utenti (75%) affermano di riuscire a portare a termine task che prima non erano in grado di svolgere.
Questo è il vero “vantaggio sleale”. Un marketer può ora eseguire analisi dati SQL di base. Un programmatore junior può affrontare architetture complesse. Un HR manager può analizzare trend statistici di retention.
L’AI sta agendo come un equalizzatore di competenze, abbattendo le barriere tecniche all’ingresso di molte professioni e permettendo una fluidità operativa tra i dipartimenti (IT, Marketing, HR, Engineering) mai vista prima.
5. La grande frattura: frontier users vs median users
Tuttavia, il report lancia anche un allarme silenzioso. Esiste un divario enorme, una frattura competitiva tra l’utente medio e quello che il report definisce “Frontier User” (il top 5% per intensità di utilizzo).
Le aziende che si trovano nella fascia alta di questa curva non stanno ottenendo risultati leggermente migliori. Stanno ottenendo risultati esponenzialmente migliori.
Chi integra l’AI a livello infrastrutturale crea un effetto composito: dati migliori allenano modelli migliori, che generano processi più efficienti, che liberano tempo per ulteriore innovazione.
Chi rimane fermo all’uso basico (“scrivimi una mail”) rischia di trovarsi fuori mercato non per mancanza di qualità, ma per insostenibilità dei costi e dei tempi di esecuzione rispetto ai competitor evoluti.
Lo scenario liquido: la variabile Google e il futuro prossimo
È doveroso chiudere questa analisi con un disclaimer strategico. I dati discussi provengono dall’ecosistema OpenAI, che oggi detiene una quota di mindshare dominante. Il mercato, però, è estremamente liquido.
La concorrenza non sta a guardare. Google sta spingendo l’acceleratore sull’ecosistema Gemini e sui modelli ibridi (come NanoBananaPro e successive evoluzioni multimodali), puntando tutto sull’integrazione nativa con la suite Workspace.
Perplexity sta diventando un ecosistema. Claude è un assistente per il coding efficace ed affidabile.
È molto probabile che nei prossimi 6-12 mesi assisteremo a una convergenza delle prestazioni “brute” dei modelli.
La differenza competitiva, a quel punto, non la farà il fornitore del modello (OpenAI, Google, Anthropic), ma la qualità dell’infrastruttura dati dell’azienda cliente.





