OPEN INNOVATION

Come l’AI agentica sta cambiando il ruolo delle startup nell’innovazione delle aziende



Indirizzo copiato

Manus, Lovable e N8N spingono le aziende a internalizzare l’innovazione e l’Open Innovation deve cambiare pelle. L’era della “startup come servizio” è a una svolta: con i nuovi strumenti di AI agentica, le corporate possono creare e orchestrare internamente ciò che prima delegavano. La vera sfida diventa la governance

Pubblicato il 19 gen 2026

Fabio Davide Capasso

Innovation Strategist



Ai agentica. come cambia il rapporto tra startup e aziende
Ai agentica. come cambia il rapporto tra startup e aziende

Per oltre un decennio, l’Open Innovation è stata la risposta delle grandi aziende alla necessità di innovare rapidamente. Il modello era chiaro: collaborare con startup agili per compensare la lentezza dei processi interni. Le startup fornivano velocità, sperimentazione ed execution, mentre le corporate mantenevano il controllo strategico.

Oggi questo modello non scompare, ma entra in una fase di profonda trasformazione. L’emergere dell’Intelligenza Artificiale agentica mette in discussione un presupposto implicito dell’Open Innovation tradizionale: che l’execution digitale debba necessariamente essere esternalizzata.

L’acquisizione di Manus da parte di Meta, riportata dalla stampa con una valutazione intorno ai 2 miliardi di dollari, rappresenta un segnale importante di questa traiettoria possibile, non di un esito inevitabile. Meta non ha acquistato soltanto una startup di successo. Ha acquisito una capacità: quella di orchestrare agenti AI in grado di eseguire task complessi interagendo con sistemi software esistenti. In altre parole, ha internalizzato una parte significativa dell’execution.

Questo passaggio apre una domanda cruciale per Innovation Manager e C-level: se alcune capacità operative possono essere sviluppate e governate internamente tramite agenti AI, quale ruolo rimane alle startup? E come deve evolvere, di conseguenza, la strategia di Open Innovation?

La risposta non è che le startup sono finite. È che il loro ruolo sta cambiando.

Dai PoC frammentati alle capability permanenti: il paradigma agentico

L’esperienza di molti programmi di innovazione corporate, in Italia e in Europa, mostra un dato ricorrente: il tasso di industrializzazione dei Proof of Concept è molto basso. L’innovazione è stata spesso trattata come una sequenza di esperimenti isolati, scollegati dalla strategia e dalle architetture core dell’azienda.

L’AI agentica introduce un cambio di prospettiva. Un agente AI non è una soluzione verticale che risolve un singolo problema, ma una capability generalista. Comprende obiettivi espressi in linguaggio naturale, utilizza strumenti digitali disponibili come API, applicazioni e database, e agisce per raggiungere risultati.

Questo sposta l’attenzione dal singolo PoC alla costruzione di una piattaforma interna. Invece di finanziare molteplici progetti tattici con fornitori diversi, un’azienda può investire nello sviluppo di una capability agentica e declinarla su più casi d’uso nel tempo. L’innovazione smette di essere un progetto e diventa una capacità continua.

Questo non elimina la necessità di collaborare con startup, ma cambia i criteri di scelta. L’execution standardizzabile diventa candidabile all’internalizzazione. L’expertise difficile da replicare, invece, diventa ancora più preziosa.

Gli strumenti che abilitano l’internalizzazione: Lovable e N8N

Il cambio di paradigma non sarebbe possibile senza una nuova generazione di strumenti. Se l’AI agentica rappresenta il “cosa”, piattaforme come Lovable e N8N rappresentano il “come”.

La startup svedese Lovable consente di trasformare descrizioni testuali in applicazioni funzionanti, codice sorgente incluso. Questo approccio, spesso definito “vibe coding”, abbassa drasticamente la barriera di accesso allo sviluppo software e riduce il time to prototype da mesi a giorni.

È importante chiarire un punto. Questi strumenti automatizzano il coding, non il problem solving. La definizione dei requisiti, la logica di business, l’architettura del sistema e la gestione delle eccezioni richiedono comunque competenze elevate. Senza cultura tecnica e system thinking, il rischio è moltiplicare soluzioni fragili invece di costruire capability.

Sul fronte dell’orchestrazione, N8N si è affermata come piattaforma open source di riferimento per l’automazione tecnica. La sua evoluzione verso sistemi multi-agente consente di costruire workflow complessi in cui un agente supervisore coordina agenti specializzati. Logiche che in passato richiedevano l’acquisto di servizi SaaS o l’integrazione di soluzioni esterne possono oggi essere progettate e governate internamente.

Internalizzare, però, non significa eliminare i costi, significa spostarli e governarli in modo diverso. Si passa da un modello prevalentemente OpEx, fatto di abbonamenti e fatture a fornitori esterni, a una combinazione di CapEx per costruire la piattaforma interna e OpEx per i costi ricorrenti di inferenza (token), infrastruttura e competenze necessarie a mantenerla e farla evolvere. Non è gratis. È una riallocazione più strategica delle risorse, perché il beneficio non è immediato sul breve periodo economico, ma nel medio periodo in termini di controllo, personalizzazione, proprietà dei dati e minore dipendenza dalle roadmap dei vendor.

Infrastruttura come abilitatore: il caso Retelit

La costruzione di una “fabbrica interna di agenti AI” non è solo una questione di software. Richiede un’infrastruttura di rete e di calcolo adeguata, capace di sostenere carichi distribuiti, latenze ridotte e requisiti stringenti su sicurezza e governance dei dati.

In Italia, un esempio rilevante in questa direzione è Retelit, operatore italiano di telecomunicazioni e servizi ICT B2B. L’azienda ha annunciato un investimento di oltre 20 milioni di euro per l’evoluzione della propria rete, con l’obiettivo di renderla più flessibile grazie all’uso di tecnologie basate su AI e più resiliente rispetto a scenari di sicurezza futuri, in ottica quantum safe, in collaborazione con partner tecnologici come Nokia e Cisco.

Questo tipo di investimento non rappresenta una soluzione pronta all’uso per l’AI agentica, ma un abilitatore infrastrutturale. In presenza di una rete performante, di architetture ibride edge cloud e di competenze adeguate, alcune aziende possono progettare sistemi agentici più avanzati rispetto ai modelli centralizzati tradizionali.

In questi scenari, l’infrastruttura smette di essere un semplice centro di costo e diventa una leva strategica. Senza competenze architetturali e modelli di governance chiari, però, una rete più potente rischia di amplificare la complessità anziché ridurla.

Governance agentica: dalla gestione di fornitori alla gestione di workforce digitale

La prospettiva di un’azienda che opera come un’orchestra di agenti autonomi apre però una questione cruciale: la governance. Affidarsi a questi sistemi introduce rischi concreti: data leakage tra sistemi non autorizzati, drift dei workflow dovuto agli aggiornamenti dei modelli sottostanti, conflitti con processi legacy non documentati che possono generare blocchi operativi.

Questo sposta radicalmente il ruolo dell’Innovation Manager. In passato il focus era su scouting startup, gestione contratti e SLA. Oggi diventa centrale la costruzione di un AI Operating Model: definizione di permessi, tracciamento delle azioni, audit continuo, ownership dei processi automatizzati e integrazione tra IT, business e HR.

In altre parole, si passa dalla gestione di fornitori alla gestione di una workforce digitale.

Il nuovo Playbook per l’Innovation Manager

La transizione verso un modello di innovazione che integra capacità agentiche interne non richiede una rivoluzione immediata, ma un cambiamento metodico nel modo in cui le aziende prendono decisioni su tecnologia, organizzazione e partnership. L’errore più comune è affrontare l’AI agentica come un’estensione dei PoC tradizionali. In realtà, si tratta di ripensare il sistema di governo dell’innovazione.

Dall’osservazione dei primi casi aziendali emerge un playbook articolato su alcune leve chiave.

Mappare l’execution, non le idee

    Il primo passo non è individuare nuovi casi d’uso, ma analizzare in modo critico dove oggi l’azienda esternalizza execution. In molte organizzazioni, startup e fornitori digitali svolgono funzioni che non riguardano l’innovazione in senso stretto, ma l’implementazione operativa di processi già noti. Una mappatura efficace distingue almeno tre categorie.

    La prima riguarda processi ripetitivi ad alto volume, con logiche di business proprietarie e forte dipendenza dai dati interni. Questi sono candidati naturali per l’internalizzazione tramite agenti AI, perché il valore non risiede nel software in sé, ma nella conoscenza del processo.

    La seconda categoria include casi in cui execution e competenza specialistica sono intrecciate. Qui l’approccio più efficace è spesso ibrido: la startup fornisce IP, modelli o componenti critiche, mentre l’azienda governa l’orchestrazione e l’operatività.

    La terza categoria comprende ambiti di deep tech, regolazione complessa o ecosistemi industriali articolati. In questi casi, l’esternalizzazione rimane la scelta razionale, ma cambia la natura della partnership, che diventa più strategica e di lungo periodo.

    Questa mappatura consente di spostare la discussione da “quali startup coinvolgere” a “quali capability costruire internamente”.

    Sperimentare in modo controllato, non diffuso

    Il secondo elemento del playbook è il modo in cui si sperimenta. L’AI agentica non va testata con una molteplicità di PoC scollegati, ma attraverso pochi progetti pilota ad alta intensità di apprendimento. Un pilota efficace ha alcune caratteristiche ricorrenti. È circoscritto, ma reale, agisce su un processo esistente e misurabile, coinvolge fin dall’inizio IT, business e funzioni di controllo, e ha un obiettivo esplicito di costruzione di competenze, non solo di efficienza.

    In questa fase, il ritorno economico immediato è secondario. Il vero output è la capacità interna di configurare agenti, integrarli con i sistemi esistenti, monitorarne il comportamento e gestirne i limiti. Senza questo apprendimento organizzativo, qualsiasi tentativo di scala è destinato a fallire.

    Mettere la governance prima della scala

    Uno degli errori più pericolosi è rimandare il tema della governance. Con l’AI agentica, la governance non è un livello burocratico aggiuntivo, ma una condizione abilitante.

    Prima che il numero di agenti cresca, è necessario definire un perimetro minimo di regole condivise. Questo include la classificazione degli agenti per livello di rischio e autonomia, la definizione dei permessi sui dati e sui sistemi, l’obbligo di tracciamento delle azioni e la chiara assegnazione delle responsabilità.

    Un AI Operating Model efficace non nasce completo. Parte in modo essenziale, viene testato sul campo e si evolve sulla base degli incidenti, degli errori e delle eccezioni incontrate. L’obiettivo non è eliminare il rischio, ma renderlo visibile, gestibile e accettabile per l’organizzazione.

    Ridefinire il ruolo dell’Open Innovation

    L’introduzione di capacità agentiche interne obbliga a rivedere profondamente la strategia di Open Innovation. Quando l’execution standardizzabile può essere gestita internamente, i criteri di valutazione delle startup cambiano.

    Velocità di sviluppo e costo del PoC perdono centralità. Diventano invece determinanti fattori come l’unicità dell’IP, le barriere alla replicazione, la qualità dei dataset, la profondità tecnologica e il potenziale di co-creazione.

    Questo si traduce in scelte operative chiare: meno PoC tattici, più partnership strutturate; meno fornitori intercambiabili, più alleanze strategiche; meno sperimentazione dispersiva, più investimento concentrato su pochi asset critici.

    Investire sulle persone, non solo sugli agenti

    Infine, nessun playbook è completo senza una riflessione sulle competenze. L’AI agentica non riduce il fabbisogno di skill, lo sposta.

    Gli Innovation Team devono sviluppare competenze tecniche su configurazione, orchestrazione e governance degli agenti. I team di business devono acquisire AI literacy sufficiente per collaborare con sistemi autonomi in modo consapevole. La leadership deve comprendere le implicazioni strategiche, organizzative e di rischio di queste scelte.

    In questo senso, l’AI agentica non è solo una tecnologia, ma un acceleratore di cambiamento organizzativo. Le aziende che la tratteranno come un semplice strumento perderanno l’opportunità. Quelle che la useranno per ripensare il proprio modello di innovazione costruiranno un vantaggio competitivo duraturo.

    Conclusione: evoluzione, non estinzione

    L’AI agentica non segna la fine delle startup, ma la fine di un certo tipo di relazione tra corporate e startup. Le realtà che basano il proprio valore su execution standardizzabile subiranno una pressione crescente. Al contrario, emergeranno rafforzate le startup che sviluppano deep tech, proprietà intellettuale difficilmente replicabile, infrastrutture dati complesse e modelli AI proprietari.

    Per gli Innovation Manager, la domanda chiave non è se internalizzare o meno, ma cosa ha senso costruire internamente e dove invece creare partnership strategiche di lungo periodo.

    Le aziende che sapranno combinare capacità agentiche interne e collaborazioni ad alto valore con le startup guideranno l’innovazione nel prossimo decennio. La maratona è appena iniziata.

    guest

    0 Commenti
    Più recenti Più votati
    Inline Feedback
    Vedi tutti i commenti

    Articoli correlati

    0
    Lascia un commento, la tua opinione conta.x