L’industria tecnologica sta attraversando una fase di maturazione profonda, in cui l’identità di una startup AI non è più definita semplicemente dall’adozione di un modello linguistico, ma dalla capacità di dominarne l’architettura operativa e l’integrazione funzionale. La percezione di un mercato dominato esclusivamente da soluzioni consumer, nate sulla scia del successo globale di ChatGPT, sta lasciando il posto a una realtà industriale in cui il segmento B2B e il supporto diretto ai fondatori rappresentano il vero motore dell’innovazione. Le riflessioni emerse durante il recente TechCrunch Disrupt 2025, documentate nel corso di un’intervista condotta dall’AI editor Russell Brandom a Marc Manara, Head of Startups di OpenAI, delineano un ecosistema che ha ormai superato la fase della sperimentazione per entrare in quella dell’efficienza e della creazione di valore su scala globale.
Indice degli argomenti
La strategia B2B e la governance dei modelli
Il posizionamento strategico dei principali fornitori di intelligenza artificiale sta subendo un riallineamento significativo per rispondere alle esigenze di un mercato sempre più esigente. Nonostante la visibilità dei prodotti rivolti al grande pubblico, l’attenzione si è spostata massicciamente verso le infrastrutture pensate per le imprese. Marc Manara ha smentito con decisione la tesi secondo cui il settore aziendale sia appannaggio esclusivo di altri competitor, affermando: “Abbiamo un business consumer di successo ed è fondamentale per OpenAI, ma abbiamo investito pesantemente anche sul lato B2B, in particolare con le aziende e le startup”. Questo impegno si traduce in un supporto dedicato a realtà che stanno definendo le loro categorie di riferimento, tra cui spiccano nomi come Cursor, Perplexity, Abridge e Harvey.
L’obiettivo dichiarato di OpenAI è quello di lavorare a ritroso, partendo dalle necessità concrete delle startup per costruire API e piattaforme che rispondano a bisogni operativi specifici. Per garantire questa vicinanza al mercato, l’azienda ha strutturato un team globale composto da ex fondatori, operatori e investitori di venture capital, con una presenza stabile in hub strategici come San Francisco, New York, Europa e Asia. In questa nuova fase, la priorità non è più soltanto la potenza bruta del calcolo, ma la fornitura di modelli perfezionati e un supporto concreto per le strategie di go-to-market, permettendo alle giovani imprese di scalare velocemente.
Steerability e tool calling: le vere richieste dei fondatori
Quando si analizzano le aspettative per le prossime generazioni tecnologiche, come i futuri modelli GPT-5 o GPT-6, emerge che i fondatori non chiedono semplicemente un incremento generico dell’intelligenza, ma strumenti più controllabili e prevedibili. Manara ha tracciato un parallelo illuminante tra i modelli IA e l’evoluzione del software: “C’è un’analogia con i linguaggi di programmazione: ci sono quelli di cui tutti si lamentano e quelli che nessuno usa. Le startup sono molto esplicite nel dirci cosa non va: vogliono modelli più governabili (steerable)”.
In cima alla lista delle necessità tecniche, oltre ai temi costanti relativi a costi e latenza, emerge il ruolo cruciale del tool calling. Per chi costruisce agenti autonomi, la capacità del modello di interagire con il mondo esterno e con software terzi non è un dettaglio secondario, ma il cuore del prodotto. Secondo Manara, “la capacità del modello di chiamare funzioni o strumenti esterni in modo accurato e al momento giusto determina le prestazioni dell’agente stesso”. Questo controllo deve tradursi in una trasparenza operativa totale: se un prodotto per il coding effettua decine di chiamate a strumenti senza fornire contesto, l’esperienza dell’utente finale ne risente drasticamente. Il modello deve quindi essere in grado di spiegare le proprie azioni, permettendo all’utente di monitorare o reindirizzare il processo in tempo reale per evitare errori o derive stilistiche.
L’architettura dell’efficienza: orchestrazione e Reinforcement Fine-Tuning
Il mercato delle startup AI sta evolvendo verso un uso più consapevole e stratificato delle risorse computazionali. Le aziende tendono oggi a evitare l’impiego di più “intelligenza” del necessario per compiti semplici, preferendo un sistema di routing intelligente che assegna ogni task al modello più idoneo per bilanciare costi e prestazioni. In risposta a questa esigenza, OpenAI ha diversificato la propria offerta includendo versioni con pesi e capacità differenti, come GPT-5 Nano, Mini e la versione completa.
Esempi concreti di questa architettura si trovano in aziende come Decagon o Sierra, che gestiscono l’assistenza clienti tramite un’orchestrazione in successione: “utilizzano un’orchestrazione di modelli in successione: modelli piccoli per la classificazione dell’intento dell’utente e l’analisi rapida, e modelli più grandi per il passaggio finale di ragionamento che produce l’output per l’utente”. Oltre al prompting tradizionale, una tecnica che sta ridefinendo le prestazioni in domini specifici è il Reinforcement Fine-Tuning (RFT). Questa metodologia, che sfrutta l’apprendimento per rinforzo per migliorare i modelli di ragionamento, ha trovato un’applicazione esemplare in Ambience Healthcare. L’azienda ha utilizzato l’RFT per migliorare la selezione dei codici assicurativi nella fatturazione medica, un ambito dove la precisione è critica e dove questa tecnica ha avuto un impatto “drammatico” sull’accuratezza complessiva del sistema.
La fine del mito del “GPT wrapper” e il valore tecnico profondo
Per lungo tempo, il dibattito sulle nuove imprese è stato dominato dal termine “GPT wrapper“, spesso usato in modo dispregiativo per indicare realtà prive di un reale valore aggiunto oltre all’interfaccia grafica. Tuttavia, i dati economici attuali stanno smentendo radicalmente questo pregiudizio. Manara ha citato numeri che testimoniano la solidità di queste aziende: “Lovable, lanciata da poco più di un anno, sta raggiungendo i 200 milioni di dollari di ARR”. Il successo non riguarda solo i modelli generalisti, ma è evidente in tutti i verticali industriali: Manara porta gli esempi di buon esiti anche negli ambiti del legale (Harvey, Leya, Spellbook), sanitario (Ambience Healthcare, Abridge) e coding (Cursor, Windsurf, Cognition).
Il vero fattore differenziante non è più solo la conoscenza del mercato, ma la comprensione profonda della tecnologia IA. I team fondatori più vincenti possiedono competenze avanzate in matematica e ricerca, sanno come progettare dataset per il fine-tuning e come inserire il giusto contesto nel modello. Manara ha portato l’esempio di Fixer, una startup che gestisce le email: nonostante la qualità del modello base, il team utilizza il fine-tuning per risolvere ambiguità contestuali sottili, come distinguere se un termine temporale in una conversazione si riferisca al passato o al futuro. Questa raffinatezza tecnica permette di trasformare una tecnologia generalista in un vantaggio competitivo difficilmente colmabile dai competitor meno sofisticati.
La rivoluzione operativa: sprint di ventiquattro ore e produttività
L’impiego massiccio dell’intelligenza artificiale sta cambiando non solo i prodotti finali, ma la natura stessa del lavoro all’interno delle aziende. L’impatto più dirompente si registra nel ciclo di vita dello sviluppo del software. Se lo sprint di due settimane è stato per decenni lo standard aureo dell’industria, l’adozione di strumenti come Cursor o Codex ha accelerato i tempi in modo esponenziale. Molte aziende sono passate a cicli settimanali o di tre giorni, mentre realtà come Cursor sono diventate celebri per i loro “sprint di un giorno”.
Questa velocità permette di avere un’app mobile pronta per la produzione in una sola settimana, eliminando le frizioni che storicamente caratterizzavano la fase di costruzione iniziale. Anche le funzioni di vendita e supporto hanno subito trasformazioni radicali. Il lavoro di un Sales Development Representative (SDR), che prima richiedeva ore di ricerca manuale per identificare contatti e segnali di mercato, è oggi quasi totalmente automatizzato. Questo permette a piccoli team di essere dieci volte più produttivi, mantenendo l’intervento umano focalizzato esclusivamente sulla parte consulenziale e relazionale della vendita, dove l’empatia e la strategia rimangono insostituibili.
Le nuove frontiere: agenti a lungo orizzonte e analisi dei dati
Nonostante l’attività frenetica in ogni settore, rimangono ampie aree che Manara definisce ancora in fase di esplorazione. La sfida principale del prossimo futuro riguarda i compiti agenziali a lungo orizzonte (long-horizon agent tasks). Sebbene oggi sia quasi sempre necessario un intervento umano di controllo, il miglioramento dei modelli renderà possibile affidare all’IA compiti complessi e ambigui per periodi prolungati. Oltre al coding e alle vendite, nuove opportunità stanno emergendo nella contabilità, nella finanza e nella pianificazione fiscale. OpenAI si sta concentrando in particolare sul rendere i modelli eccellenti nell’analisi dei dati tabulari. Marc Manara ha chiarito che, sebbene la generazione di query SQL sia ormai una capacità acquisita, “ragionare su dati tabulari è un’area dove stiamo ancora cercando di migliorare i modelli”. Risolvere questo nodo tecnico aprirà la strada a un’automazione ancora più profonda delle funzioni aziendali interne, permettendo all’intelligenza artificiale di gestire non solo i dati, ma la logica che li sottende. Sul fronte delle performance, la ricerca continua a lavorare su soluzioni come il caching per ridurre i costi dei token e aumentare la velocità, garantendo che anche i compiti più complessi ricevano il giusto tempo di ragionamento senza penalizzare l’esperienza utente.





