Il settore manifatturiero si trova di fronte a una trasformazione strutturale dove la semplice raccolta di segnali dai macchinari non è più sufficiente per garantire la competitività. Sebbene le fabbriche moderne siano ormai saturate di sensori, la capacità di trasformare questo flusso costante in decisioni strategiche rimane una sfida aperta per molti operatori. Durante il recente convegno “IoT meets AI: nuove opportunità, nuove responsabilità“, organizzato dall’Osservatorio Internet of Things del Politecnico di Milano, Mattia Cerutti, Direttore operativo dell’IoT Lab, ha delineato come l’evoluzione delle architetture IIoT stia finalmente permettendo di superare i limiti storici della digitalizzazione industriale, passando da una gestione passiva dei dati a un’intelligenza proattiva supportata dai modelli linguistici di grande scala.
Indice degli argomenti
Cos’è lo IoTLab del Polimi
IoTLab è un Centro di Ricerca Applicata del Politecnico di Milano, fondato dal Dipartimento di Ingegneria Gestionale e dal Dipartimento di Elettronica, Informazione e Bioingegneria. IoTLab si dedica alla ricerca applicata e di base, con l’obiettivo di progettare e valutare prodotti e servizi innovativi basati sulle tecnologie dell’Internet of Things (IoT).
Collaborando con aziende di primo piano in Italia e all’estero, IoTLab è specializzato in progetti di trasferimento tecnologico di livello TRL 5-7 (Technology Readiness Level).
I silos informativi e la sfida della data governance nell’IIoT
Uno degli ostacoli principali che ancora oggi frena l’efficienza produttiva risiede nella frammentazione delle infrastrutture digitali. All’interno delle industrie è presente una grande mole di dati, ma l’informazione che si riesce a estrarre è tendenzialmente povera a causa di problemi architetturali legati ai silos informativi. Come sottolineato da Cerutti, i dati di telemetria restano spesso confinati in database non collegati tra loro, mancando di quella interoperabilità necessaria per una visione d’insieme. Questa frammentazione impedisce di collegare i segnali elettrici o meccanici al contesto operativo più ampio, come la manualistica tecnica o la reportistica storica di manutenzione.
L’intelligenza artificiale mira a indirizzare proprio questo tema, integrando i dati provenienti dal campo con elementi di contesto come manuali tecnici, PDF e tutta la reportistica legata a un macchinario. Tuttavia, questa integrazione non può prescindere da una base metodologica solida. Cerutti è stato categorico su questo punto, affermando che “tutto ciò che raccontiamo rispetto all’AI funziona solo se supportato da una adeguata data governance”. Senza una gestione strutturata, il rischio è quello di alimentare i modelli con dati sporchi o incompleti, seguendo il principio per cui l’intelligenza artificiale non può colmare le lacune di database non governati o strutturati. In questo senso, la visione del dato come “petrolio” dell’azienda richiede non solo strumenti tecnici, ma un vero e proprio approccio culturale.
Dall’Edge alla Generative AI: una questione di latenza
La progettazione di un’architettura IIoT moderna richiede una distinzione netta tra le diverse esigenze temporali della fabbrica. Le applicazioni non sono tutte uguali e la scelta tecnologica dipende dai requisiti tecnici e dai tempi di risposta necessari. Le applicazioni a bassa latenza si trovano tipicamente all’Edge, dove è richiesto un real-time molto spinto, come nel caso dei controlli a livello di PLC in ambito industriale. In questi scenari, gli algoritmi di AI si occupano di compiti specifici come l’anomaly detection e la manutenzione predittiva, elaborando segnali e allarmi che richiedono decisioni rapide vicino al campo.
Esiste tuttavia un secondo ambito, oggi indirizzato dalla Generative AI e in particolare dai Large Language Model (LLM), che riguarda decisioni con tempi paragonabili al ragionamento umano, quantificabili in secondi, minuti o ore. In questo contesto, gli LLM possono essere alimentati dalla reportistica per contestualizzare meglio i segnali raccolti, fornendo agli operatori spiegazioni e istruzioni passo-passo. Cerutti ha evidenziato come questa tecnologia risolva un limite cronico dell’IIoT: “Attualmente i dati IoT ci dicono cosa sta accadendo, ma non il perché; collegandoli alla manualistica in modo efficiente, possiamo contestualizzarli e prendere decisioni informate”.
L’evoluzione tecnologica: Retrieval-Augmented Generation (RAG)
Per integrare la conoscenza aziendale nei modelli generici, le aziende si trovano di fronte a un bivio metodologico. Il primo approccio è quello del fine-tuning, ovvero il retraining del modello affinché impari direttamente dalla documentazione. Si tratta però di un processo che può diventare molto costoso se la base di conoscenza aziendale cambia spesso. Per ovviare a questo problema, la ricerca si sta spostando verso la Retrieval-Augmented Generation (RAG), una tecnica che fornisce al modello informazioni opportunamente codificate affinché possa interrogarle alla luce dei dati interpretabili dal modello stesso.
La vera innovazione per il mondo IIoT risiede nella capacità di inserire in questo processo anche i dati provenienti dai sensori in tempo reale. Cerutti ha introdotto il concetto di Time-aware RAG, definendolo come l’elemento che permetterà di avere agenti in grado di interpretare anche i segnali provenienti dai macchinari. In un’architettura RAG, i documenti vengono frammentati, o “chunkizzati”, e trasformati in embedding, ovvero vettori numerici che il modello può recuperare per rispondere alle domande. Questo permette di portare a bordo la conoscenza aziendale specifica senza dover riaddestrare continuamente il modello.
L’interoperabilità come pilastro: MCP e Agentic AI
Il successo delle soluzioni di intelligenza artificiale applicate all’IIoT dipende dalla capacità di far dialogare sistemi diversi. Tra le novità più rilevanti dell’ultimo anno, Cerutti ha citato il Model Context Protocol (MCP), un protocollo di interoperabilità che consente agli agenti AI di collegarsi a diverse strutture dati tramite interfacce server dedicate. Parallelamente, il panorama della standardizzazione ha visto la nascita della Agentic AI Foundation, attiva dal dicembre 2025 sotto l’egida della Linux Foundation, con l’obiettivo di definire standard comuni per la comunicazione tra modelli e strutture dati.
Questi sforzi di standardizzazione sono essenziali per passare da esperimenti isolati a sistemi produttivi scalabili. La complessità risiede nel gestire pipeline che devono considerare non solo l’efficacia della risposta, ma anche la latenza, i costi di calcolo e la sicurezza degli accessi. Inoltre, nella costruzione di queste pipeline è fondamentale gestire il rischio di allucinazioni dei modelli, un problema che può essere mitigato chiedendo al sistema di citare le fonti o utilizzando meccanismi di ranking più robusti nel recupero delle informazioni.
Implementazioni reali: il caso del laboratorio IoT MADE
Le potenzialità di queste architetture non sono solo teoriche, ma trovano applicazione pratica in centri di eccellenza come il laboratorio IoT situato presso il centro MADE. In questa struttura è stata dispiegata una rete di sensori per il monitoraggio di temperatura, umidità, CO2 e qualità dell’aria. I dati raccolti vengono registrati, storicizzati e trattati per essere interpretabili da modelli avanzati come GPT. Attraverso una dashboard dedicata, gli operatori possono monitorare l’ambiente in tempo reale e porre domande in linguaggio naturale, ricevendo risposte basate su dati di campo originariamente in formato CSV e poi ristrutturati.
Per gestire queste interazioni, il laboratorio ha realizzato un chatbot che sfrutta modelli con circa 20 miliardi di parametri, come GPT-o1, per interagire in modo fluido con i dati. Questo tipo di implementazione dimostra come sia possibile democratizzare la conoscenza all’interno della fabbrica, riducendo i tempi di fermo e supportando il training on the job delle nuove risorse. Grandi player tecnologici come Microsoft, AWS, NVIDIA e Siemens stanno già percorrendo strade simili per lo sviluppo dei propri agenti AI.
Hardware e gestione dei modelli per l’IIoT
Un tema centrale nel dibattito sollevato da Giovanni Miragliotta riguarda le soluzioni hardware più adatte per eseguire questi agenti in ambito industriale. Mattia Cerutti ha spiegato che la scelta dipende strettamente dal livello di accuratezza richiesto. Esistono Large Language Model che, se opportunamente ridotti e quantizzati, possono girare su computer embedded come le schede NVIDIA Jetson, estremamente diffuse nel settore. Tuttavia, per modelli più complessi la situazione cambia radicalmente. Cerutti ha infatti precisato che “se voglio far girare un modello da 20 miliardi di parametri, difficilmente potrò farlo su una Raspberry; serve un’architettura decisamente più ‘carrozzata’”.
Oltre alla potenza di calcolo, le aziende devono affrontare decisioni strategiche sul modello “make versus buy”. È necessario scegliere quali parti dell’architettura esternalizzare, come ad esempio l’LLM stesso, e quali invece mantenere rigorosamente internamente, come la propria knowledge base. Il valore aggiunto dell’IIoT potenziato dall’AI si ottiene infatti attraverso un ciclo continuo e non tramite singole implementazioni isolate. In ogni fase, la centralità dell’operatore rimane indiscutibile: Cerutti ha concluso ricordando che, nonostante l’automazione crescente, “l’essere umano deve restare nel loop decisionale”.























