Ho seguito EmTech AI 2026, la conferenza annuale del MIT Technology Review. Il 21 aprile Amy Nordrum e Niall Firth, Executive Editor della testata, hanno presentato sul palco del campus di Cambridge la loro lista annuale: dieci dinamiche selezionate dalla redazione perché producono effetti misurabili oggi, non tra cinque anni. Al centro dei tre giorni di conferenza un cambio di registro preciso: la questione non è più se l’AI funziona, ma come si integra nei processi.
Rileggo qui la lista con un approccio operativo e una prospettiva europea, organizzata in quattro direttrici per chi guida trasformazioni in Italia.
Indice degli argomenti
L’AI alla prova del mondo fisico
Due delle dieci voci della lista MIT vanno nella stessa direzione: il salto degli LLM dal dominio digitale a quello fisico.
La prima riguarda i world model, sistemi capaci di rappresentare l’ambiente esterno e prevederne le conseguenze. Yann LeCun ha lasciato Meta per fondare un’azienda focalizzata su questo, World Labs di Fei-Fei Li sta raccogliendo capitali significativi, OpenAI ha riorientato Sora sulla simulazione del mondo. La lista MIT documenta però la fragilità attuale di questa traiettoria con un esempio preciso: un LLM che memorizza i percorsi di New York smette di funzionare appena gli si impongono deviazioni. Non mancanza di intelligenza, mancanza di rappresentazione dello spazio.
La seconda voce è meno raccontata ma più concreta: la raccolta industriale di dati umanoidi. MIT Technology Review descrive centri in Cina dove operatori in esoscheletro ripetono centinaia di volte un gesto, lavoratori a cottimo in Nigeria, Argentina e India che si filmano nelle faccende domestiche. Lo stesso pezzo MIT cita 6,1 miliardi di dollari di venture capital attratti dal settore degli umanoidi nel solo 2025 (dato MIT Technology Review su tracking VC dell’embodied AI): scommessa enorme su un’ipotesi che la stessa lista MIT classifica come ancora da verificare, ovvero che osservare il movimento umano basti a produrre robot davvero capaci.
La mia lettura per chi opera in Italia: il punto non è se acquistare un umanoide, è capire che la prossima frontiera del data collection non è più il testo o l’immagine, è il movimento. Le aziende italiane con catene logistiche, manifatturiere o di servizio in cui esistono pattern motori ripetuti potrebbero ritrovarsi tra le mani un asset finora trascurato.
L’AI che lavora in team con se stessa
Tre voci convergono qui: l’evoluzione degli LLM verso compiti lunghi e autonomi, l’orchestrazione di agenti multipli, l’ingresso dell’AI nei laboratori scientifici come membro a pieno titolo del team.
Sul primo fronte, il contributo tecnico più rilevante segnalato dal MIT è quello del CSAIL sui Recursive Language Models. In pratica, gli RLM permettono al modello di lavorare su documenti enormi senza caricarli tutti insieme: è il modello stesso a scrivere codice che ispeziona il prompt a pezzi e richiama ricorsivamente se stesso. Il paper di Zhang, Kraska e Khattab (preprint fine gennaio 2026) riporta input fino a 10 milioni di token, due ordini di grandezza oltre le finestre native dei modelli di frontiera al momento della pubblicazione, a costo per query comparabile o inferiore. Il messaggio operativo: il limite del contesto si supera con architetture inferenziali più intelligenti, non comprando il modello con la finestra più grande.
Sul secondo fronte, l’orchestrazione degli agenti, la lista cita Claude Code di Anthropic, che coordina decine di agenti di programmazione in parallelo riconfigurando il ruolo del developer su project management, e Co-Scientist di Google DeepMind, che usa team di agenti per cercare letteratura, generare ipotesi e progettare esperimenti.
Sul terzo fronte, l’AI scientist, OpenAI ha lanciato GPT-Rosalind, primo di una serie di modelli scientifici specializzati, collegandola ai laboratori automatizzati di Ginkgo Bioworks: in un caso documentato il sistema ha ridotto del 40% il costo di sintesi di una proteina. Il Nobel per la chimica 2024 ad Hassabis e Jumper di DeepMind per AlphaFold ha sancito che la traiettoria è mainstream. La stessa lista MIT registra però un caveat: uno studio su Nature segnala che l’AI sta restringendo l’orizzonte della ricerca verso aree con grandi dataset, a scapito di problemi meno trattabili algoritmicamente ma altrettanto urgenti.
Il pattern che osservo nei programmi che seguo è ricorrente. Le aziende partite nel 2024 sono in larga parte ferme al singolo caso d’uso, prototipato da un team isolato, con metriche non condivise oltre il pilot. Le poche che si stanno spostando su architetture multi-agente hanno già un product owner dedicato all’AI, governance dei dati funzionante e un punto di accumulo organizzativo (AI factory, centro di competenza) che fa da memoria istituzionale tra un progetto e l’altro. Il divario tra i due gruppi non è tecnologico, è organizzativo.
L’AI come questione geopolitica, e la posizione europea
Due voci della lista MIT mettono al centro la dimensione geopolitica.
La prima è la strategia open source cinese. Dopo che DeepSeek ha rilasciato R1 in open weight nel gennaio 2025 eguagliando le performance dei sistemi americani a una frazione del costo, una famiglia di laboratori cinesi (Z.ai, Moonshot, Qwen di Alibaba, MiniMax) ha consolidato la stessa rotta. Secondo uno studio MIT-Hugging Face citato dal MIT Technology Review, nei dodici mesi conclusi ad agosto 2025 i modelli open weight cinesi hanno rappresentato il 17,1% dei download globali contro il 15,86% americano. Limitatamente alla quota dei download di modelli open weight, è la prima volta che la Cina supera gli Stati Uniti su questo indicatore.
La seconda voce è l’integrazione dell’AI generativa nelle catene di comando militari. Il MIT segnala che il governo USA ha dichiarato di aver bisogno di sei mesi per rimuovere Claude di Anthropic dalle proprie operazioni, nonostante il Pentagono avesse etichettato l’azienda come rischio nella supply chain. La Cina sviluppa strumenti analoghi. Il problema operativo è documentato: i modelli generativi danno output diversi anche con lo stesso prompt, e sotto pressione decisionale (cinque minuti per scegliere un obiettivo) la verifica salta.
La lista MIT non copre l’asse europeo, ma per un lettore italiano resta centrale. Mistral AI si è affermata come uno dei principali player europei, con una raccolta significativa nel 2024 e una strategia focalizzata su modelli avanzati e collaborazione con imprese e sviluppatori. L’ecosistema europeo si sta muovendo, anche se con meno visibilità e capitali rispetto agli Stati Uniti. A marzo 2026 Mistral AI ha lanciato Forge, una piattaforma per addestrare modelli di frontiera su dati proprietari aziendali. Tra i primi partner e utilizzatori figurano Reply, ASML, Ericsson, European Space Agency e le agenzie pubbliche di Singapore DSO e HTX. Reply è l’unica azienda italiana inclusa in questo primo gruppo.
In parallelo, l’iniziativa europea sulle AI Factories, coordinata da EuroHPC JU, sta finanziando nuovi supercomputer e infrastrutture AI in diversi Stati membri, con messa in esercizio prevista tra il 2025 e il 2026. L’AI Act diventa pienamente applicabile dal 2 agosto 2026, con l’avvio del regime di enforcement a livello UE, inclusa la supervisione sui modelli di AI a uso generale.
La domanda per le aziende italiane è: su quale stack costruisco le mie applicazioni AI strategiche? La scelta tra modelli proprietari americani via API, open weight cinesi e infrastruttura europea non è più solo trade-off su costo e performance, è scelta di sovranità. E il calendario forza la decisione: entro il 2 agosto 2026 ogni azienda che usa GPAI in processi rilevanti deve avere mappa dei modelli usati, documentazione tecnica fornitore, policy di trasparenza sui contenuti sintetici e processo di incident reporting verso la Commissione. Non è compliance da delegare al legale, è la struttura su cui si reggeranno le applicazioni AI dei prossimi tre anni.
L’AI come problema sociale
Tre voci della lista riguardano i lati oscuri della tecnologia e la reazione che stanno producendo. È la sezione che più direttamente tocca la reputazione aziendale, e merita lo stesso peso delle altre.
Le truffe potenziate dall’AI. Tra aprile 2024 e aprile 2025 Microsoft, citata dal MIT, ha bloccato 4 miliardi di dollari di transazioni fraudolente grazie ai propri sistemi di difesa AI: la stessa tecnologia che alimenta gli attacchi è anche la principale forma di protezione. La fascia di rischio che cresce più velocemente è la frode con voce clonata di dirigenti: nel 2024 un dipendente dell’ufficio di Hong Kong di Arup, multinazionale britannica di ingegneria, ha autorizzato pagamenti per 25 milioni di dollari dopo una videochiamata con deepfake del proprio CFO (fonte: CNN, febbraio 2024). Per le aziende italiane significa rivedere ora i protocolli di autorizzazione dei pagamenti, prima che diventi necessità regolatoria.
I deepfake come arma. La funzione di image editing di Grok di xAI ha consentito di generare milioni di immagini sessualizzate, e il MIT cita una ricerca per cui l’81% dei contenuti prodotti raffigura donne. Uno studio del 2023 aveva rilevato che il 98% dei deepfake era pornografico e il 99% ritraeva donne. Per le imprese il tema più immediato è la brand impersonation: deepfake di dirigenti usati per comunicati falsi, istruzioni di pagamento fraudolente, campagne di disinformazione verso clienti e partner.
La resistenza sociale. A febbraio 2026 centinaia di persone hanno marciato davanti alle sedi londinesi di OpenAI, Google DeepMind e Meta. Negli Stati Uniti una coalizione che mette insieme repubblicani MAGA, socialisti democratici, sindacalisti e leader religiosi ha firmato una Dichiarazione Pro-Umana per l’AI. Il MIT riporta che nel solo secondo trimestre 2025 gli attivisti hanno bloccato 98 miliardi di dollari di sviluppo di data center negli USA (dato MIT Technology Review su monitoraggio di iniziative locali e contenziosi). Sul fronte occupazionale, Block ha tagliato il 40% del personale, Atlassian 1.600 dipendenti, e iniziano a comparire azioni sindacali sull’uso di modelli generativi nelle valutazioni delle performance.
Le aziende italiane che annunciano trasformazione AI senza una narrativa credibile su impatto occupazionale, governance dei dati e meccanismi di controllo si troveranno a gestire opposizioni sempre più strutturate. Le obbligazioni di trasparenza dell’AI Act sui contenuti sintetici e sui deepfake diventano vincolanti dal 2 agosto 2026; il primo draft del Codice di Pratica della Commissione su marcatura ed etichettatura dei contenuti AI-generati è già pubblico.
Tre considerazioni per chi guida la trasformazione
Tre punti che porto a casa da Cambridge.
Primo. La conferenza si chiamava The Great Integration per un motivo. Il framing ufficiale lo dice meglio di qualsiasi parafrasi: “gli esperimenti hanno provato il potenziale, i pilot hanno mostrato la strada, ora il vantaggio va a chi rende operativa l’intelligenza”. Chi nel 2025 testava ancora un caso d’uso isolato si troverà nel 2026 a competere con chi integra AI in più processi simultaneamente. La velocità con cui si passa da prove di concetto a flussi operativi stabili dipende molto più dalla governance interna che dalla scelta del modello.
Secondo. La geopolitica è leva, non sfondo. La scelta tra ecosistemi americano, cinese ed europeo determina costo, flessibilità e sovranità delle proprie applicazioni. Il calendario europeo impone di decidere adesso, non a fine anno.
Terzo. La governance non è costo, è condizione. Truffe, deepfake e opposizione sociale non si risolvono con una policy: servono architetture di controllo verificabili, comunicazione trasparente verso stakeholder interni ed esterni e capacità reale di rispondere agli incidenti.
La lista di Nordrum e Firth dice una cosa sola: nel 2026 l’AI riorganizza in parallelo economia, geopolitica e tessuto sociale, o, per dirla con il claim che chiude l’agenda di Cambridge: il futuro non si costruisce con l’AI, si costruisce sull’AI.






















