Per oltre un decennio l’intelligenza artificiale ha abitato un solo luogo, il digitale: in server, data center, cloud, applicazioni.
Anche quando ha iniziato a stupire — scrivendo testi, componendo musica, generando immagini — lo ha fatto senza peso, senza dimensioni. Tutto accadeva in uno schermo. Esisteva perché la potevi pensare, per dirla alla Cartesio, ma non potevi toccarla, viverla nel mondo fisico.
Il successo dell’AI generativa, culminato simbolicamente con ChatGPT, ha però reso evidente anche il suo limite strutturale: un’intelligenza che non abita il mondo reale. Parla, ma non si muove. Risponde, ma non agisce nel mondo tridimensionale. Prevede, ma non interviene nel mondo fisico.
Nello schermo il digitale nasce e muore. E molti, analisti finanziari inclusi, hanno iniziato a pensare che AI è in fondo limitata, che non produrrà veri cambiamenti epocali.
Perchè non l’avevano ancora capita. Infatti, come scriveva Aristotele, “l’intelletto non pensa senza immagini di vita vissuta”: ogni conoscenza, per diventare pienamente tale, deve incarnarsi, trovare una forma, abitare lo spazio. L’intelligenza artificiale non fa eccezione.
Ed è qui che inizia la storia della Physical AI.
Indice degli argomenti
CES 2026, dare un nome al salto
Al CES 2025 di Las Vegas Jensen Huang, CEO di NVIDIA, fa qualcosa di raro nel mondo tecnologico: dà un nome ad un cambio di paradigma. Parla apertamente di Physical AI, non come slogan, ma come necessità evolutiva del suo core business: abilitare l’AI.
Il messaggio è semplice e radicale: dopo aver appreso il linguaggio, l’intelligenza artificiale deve imparare la fisica, muoversi nello spazio, interagire con oggetti reali, mantenere l’equilibrio, prendere decisioni in contesti dove l’errore non è un bug, ma un incidente vero, con persone coinvolte. Un mondo dove gli errori causano morti e feriti e dove non esistono seconde o terze vite, come nei videogiochi.
Nel 2025 è ancora una visione. Nel 2026 diventa realtà.
CES 2026, l’AI entra nel mondo reale
Il Consumer Electronics Show di Las Vegas del 2026 segna una svolta storica: l’intelligenza artificiale esce dai data center ed entra nella materia.
Non si tratta di una semplice evoluzione tecnologica, ma di un cambio di stato: dallo schermo allo spazio, dal calcolo all’azione, dal digitale alla realtà.
Ma occorre apprendere il mondo, prima di entrarci.
Per John Locke, noi apprendiamo grazie a sensazioni e riflessioni, che viviamo nel mondo reale.
Ma la Physical AI ha un problema: non può imparare sbagliando nel mondo reale, non può creare incidenti stradali per evitare di causarne di nuovi!
Per questo la simulazione diventa centrale. Mondi virtuali in cui ogni condizione fisica può essere replicata milioni di volte, senza rischi. È lì che l’AI impara a prevedere traiettorie, stimare forze, adattarsi a contesti dinamici, decidere prima di agire.
Nvidia ha pensato a risolvere il problema, presentando una suite completa di tecnologie e modelli open source pensati per portare l’AI fuori dal cloud e dentro la realtà fisica, tra cui modelli come Cosmos Transfer, Cosmos Predict e Cosmos Reason, progettati per consentire ai robot di comprendere l’ambiente e agire in modo autonomo.
Dal mondo simulato alla vita reale
La guida autonoma è il primo banco di prova serio della Physical AI. Nel traffico non esistono prompt ben formulati. Esistono pedoni distratti, ciclisti imprevedibili, pioggia, cantieri, errori umani. Ed a Roma, dove vivo, tante buche ☹.
Qui l’AI non assiste: decide, e mette in gioco vite umane ed auto vere. Ed è questo che segna la differenza tra digitale e fisico.
Uno degli esempi più efficaci di questa transizione è arrivato infatti proprio dal mondo dell’automotive. Al CES sono state mostrate applicazioni di guida autonoma basate su modelli di AI fisica addestrati in ambienti simulati, capaci poi di prendere decisioni nel traffico reale.
I modelli apprendono dalla vita vera, e lì tornano per potenziare gli esseri umani, diventando intelligenza dei device che questi usano: automobili, attrezzi per cucina, tagliaerbe, robot casalinghi ed industriali, robot sottomarini per pulire le piscine e perfino pillole rese intelligenti!
NVIDIA mostra Omniverse, Cosmos, Alpamayo e Rubin non come singole innovazioni, ma come parti di un ecosistema che rende possibile l’AI fisica in settori diversi tra loro. E’ questa la rivoluzione: Nvidia abilita con device ed ecosistemi, la palla sta a tutti gli altri per creare migliaia di casi d’uso reali ed utili!
AI Everywhere: quando il paradigma diventa industria
AMD e OpenAI chiamano questa visione “AI Everywhere”: un’AI distribuita ovunque, non più confinata ai data center ma estesa ai dispositivi fisici e industriali.
Al CES 2026, quando AMD e OpenAI parlano apertamente di AI Everywhere, accade qualcosa di importante. Non è più competizione di piattaforme, ma convergenza di visione, con Nvidia e con gli altri che li seguono.
L’intelligenza artificiale diventa distribuita: nei dispositivi, nelle fabbriche, nelle macchine, negli oggetti quotidiani. Come l’elettricità. Come il software embedded.
Ed allora i robot scendono dal palcoscenico: i robot del CES 2026 non sono più attori da demo. Sono strumenti. Giocano a ping-pong, danno le carte e lavorano da croupier, lavano, stirano, preparano il piatto che preferisci avendo appreso i tuoi gusti.
I robot usano l’AI, non per pensare come un umano ma per servirlo
Questo è il salto logico dai laboratori di scienziati che volevano fare ricerca pura alle aziende di imprenditori che vogliono fatturare ed aiutare le persone.
Il robot umanoide Onero H1 non promette di pensare come un umano, ma fa il bucato, serve cibo, lava finestre e pavimenti. È un elettrodomestico con un corpo, non un robot con un’anima.
In questo contesto, segnalo con gioia un’eccellenza italiana nella Physical AI.
Si tratta di GENE.01, sviluppato da Generative Bionics, spin-off dell’IIT di Genova: è un robot pensato per coabitare con l’essere umano. È il frutto del lavoro di Roberto Cingolani prima e di Giorgio Metta poi e dei loro team, e possiamo esserne fieri, da italiani.
Generative Bionics non si è presentata come singola realtà italiana, ma ha condiviso il palco con AMD e con OpenAI, per rappresentare la concretizzazione della loro visione AI Anywhere.
In un altro palco, Nvidia era con Boston Dynamics (che ha beneficiato di investimenti di un ordine di grandezza superiori a quelli dell’IIT nella sua intera storia). Onore dunque al merito di quanto fatto a Genova ed auguri a questa startup!
Il colpo di scena: l’AI entra nella carne
Con ChatGPT Health l’intelligenza artificiale entra nel corpo umano. Diventa un luogo dove confluiscono dati clinici, storie sanitarie, parametri vitali.
Qui risuona una riflessione di Martin Heidegger: “l’essenza della tecnica non è nulla di tecnico”. Quando l’AI entra nella salute, non entra solo come strumento, ma come modo di svelare e organizzare la realtà, ridefinendo ruoli, poteri e responsabilità.
La diffusione silenziosa della “augmented health” renderà furiosi Ordini e Corporazioni varie?!
La vera rivoluzione spesso avviene senza rumore, nei cuori delle persone, e si impone condizionandone i desideri.
Al CES 2026 sono comparsi oggetti che trasformano la salute e la performance mentale in un gesto quotidiano e che diventeranno oggetto dei desideri di tante persone.
NuraLogix, ad esempio, ha presentato il Longevity Mirror, uno specchio intelligente che utilizza AI e imaging ottico transdermico per analizzare, in trenta secondi e a partire da un semplice selfie, indicatori di rischio cardiovascolare, salute metabolica e livelli di stress mentale. Specchio, specchio delle mie brame, chi è il più sano del reame?
Withings ha introdotto la Body Scan 2, una bilancia evoluta in grado di rilevare oltre sessanta biomarcatori, consentendo il monitoraggio continuo di parametri metabolici, pressione e segnali di alterazione glicemica.
Brush Halo è uno spazzolino che utilizza intelligenza artificiale e sensori di gas per analizzare il respiro mentre ci si lava i denti in venti secondi, rilevando in modo passivo oltre trecento possibili condizioni di salute — dal diabete in fase iniziale a disturbi epatici — senza un solo prelievo di sangue. Qui l’AI non “fa diagnosi”: ascolta il corpo nella sua quotidianità, trasformando un gesto banale in un atto di prevenzione continua.
Accanto alla salute, la Physical AI entra anche nella sfera delle prestazioni cognitive. Al CES 2026 sono comparsi headband neuro-sportivi basati su tecnologia EEG di livello professionale, capaci di fornire in tempo reale informazioni su concentrazione, stress e affaticamento mentale. Abbinati a un AI Coach, questi dispositivi traducono stati mentali complessi in dati operativi, aiutando atleti e allenatori a comprendere carico cognitivo, prontezza e performance sotto pressione. Li vedrete presto addosso a calciatori e sportivi famosi!
Anche la quotidiana cura di sé diventa terreno della Physical AI. GLYDE, un sistema di taglio dei capelli completamente guidato dall’intelligenza artificiale, sostituisce il barbiere tradizionale con un dispositivo domestico intelligente. Attraverso un’app, l’utente controlla lunghezza, stile e sfumature; l’AI Stylist fornisce guida vocale in tempo reale, corregge gli errori e garantisce risultati professionali anche ai principianti. Un gesto banale, come un taglio di capelli, diventa così un’esperienza aumentata dall’AI. Per la cronaca, a me non serve: uso il tosacani e va bene così 😊
Oggetti quotidiani come spazzolini intelligenti, robot domestici e sensori di salute diventano cavalli di Troia della Physical AI. Non appaiono rivoluzionari, ma normalizzano l’AI nella vita di tutti i giorni.
Energia, batterie, #innovateordie
Essendo un appassionato di energia ed elettrificazione dei trasporti, non posso non menzionare le batterie allo stato solido di Donut Lab, adottate da Verge Motorcycles: dieci minuti di ricarica, seicento chilometri di autonomia.
Se le mettono nelle auto a prezzi convenienti, saluti e baci a chi non innova nel settore e pensa che la colpa della crisi sia da attribuire alle norme europee!
Epilogo: AI, il nuovo sistema operativo dell’umanità
Il CES 2026 ci mostra una verità semplice e radicale: l’AI non è più solo software. È uscita dal ghetto ed è diventata infrastruttura fisica, cognitiva e sociale. Abita il mondo, i device, i corpi, le decisioni reali. E’ in robot, droni, automobili, specchi, bilance, spazzolini ed oggetti vari che viviamo ogni giorno. Entrerà anche nel nostro corpo: con defibrillatori, stent, bisturi, sonde e pillole intelligenti.
Per questo può essere definita, sempre di più a ragione, il nuovo sistema operativo dell’umanità. Un sistema operativo che sarà impossibile disinstallare!






