L’ANALISI

Come usare (bene) l’AI agentica per salvare e migliore le competenze in azienda



Indirizzo copiato

Se l’AI agentica è usata come scorciatoia per l’efficienza eroderà le competenze, ma se aiuta a liberare energie per comprensione e riflessione può rigenerare un’azienda. Come ripensare la formazione AI

Pubblicato il 26 gen 2026

Susanna Sancassani

Managing Director Task force teaching learning Innovation – METID Politecnico di Milano



Agenti agentica: come influisce sulle competenze
Agenti agentica: come influisce sulle competenze

Quando oggi si parla di intelligenza artificiale nella formazione, il dibattito si concentra quasi sempre su una domanda (sbagliata): che cosa perderemo?
Perderemo capacità di scrittura? Di concentrazione? Di ragionamento? È una reazione comprensibile, ma parziale. E, mentre ci interroghiamo, si sta verificando un passaggio di fase : dai Large Language Models, progettati per generare testo e risposte plausibili, a sistemi di AI agentica, capaci di agire all’interno di un processo.

La differenza tra LLM e AI agentica

Un LLM, per quanto sofisticato, resta fondamentalmente reattivo: risponde a una richiesta, produce un output linguistico, si ferma. L’AI agentica, invece, introduce un cambiamento qualitativo: non si limita a dire qualcosa, ma fa qualcosa. Interpreta un obiettivo, lo scompone in passi, analizza dati, pianifica, utilizza strumenti esterni, osserva gli effetti delle proprie azioni e corregge il tiro. Entra, in altre parole, nel ciclo pensiero–azione–verifica che caratterizza il lavoro cognitivo esperto.

Questo salto è particolarmente rilevante per il lavoro concettuale e formativo. Immaginiamo un compito tipico: progettare un corso, impostare una strategia, analizzare uno scenario complesso. Un LLM può generare una bozza o suggerire idee. Un sistema agentico, invece, lavora sul processo: chiarisce gli obiettivi in relazione ai dati, esplicita i criteri decisionali, propone alternative, segnala incoerenze, mantiene traccia delle scelte fatte e delle loro conseguenze.

L’IA agentica cambia il modo in cui il pensiero viene esercitato, perché rende visibile e continuo un processo che spesso, per mancanza di tempo e riflessione, resta frammentato o implicito.

L’AI agentica come “ambiente di allenamento cognitivo”

Sottolineare questo passaggio è decisivo. Il vero rischio non è che l’IA agentica sostituisca le competenze umane, ma che venga usata come se fosse solo un LLM più veloce, perdendo l’occasione di sfruttare l’AI agentica come ambiente di allenamento cognitivo. È questo il punto su cui si gioca il futuro della formazione nell’era dell’intelligenza artificiale.

Quando si parla di intelligenza artificiale e formazione, il dibattito pubblico è dominato da un convitato di pietra: il bias dello status quo. È quel bias cognitivo per cui tendiamo ad assumere, in modo implicito e quasi automatico, che lo stato attuale delle cose sia naturale, neutro, desiderabile. Tutto ciò che lo mette in discussione appare come una minaccia, una perdita, una deviazione pericolosa. Come se partissimo da una situazione ottimale e l’unico problema fosse non rovinare ciò che funziona già a dovere.

Proviamo allora a fare un esperimento mentale. Liberiamoci, anche solo per un momento, dallo status quo bias. Facciamo i famosi “alieni” che guardano l’Italia dallo spazio per la prima volta.

Cosa cambia nelle competenze con l’uso dell’AI

All’inizio del Novecento l’Italia non era affatto un Paese “già alfabetizzato” che oggi rischia di rovinarsi per colpa delle tecnologie digitali. I numeri storici lo dicono chiaramente: dopo l’Unità, l’analfabetismo era altissimo (nel 1871 circa 69%), e resta un fenomeno di massa anche a cavallo del secolo. Nel 1901 la quota è ancora intorno al 48%, nel 1911 circa 38%, con disparità territoriali enormi (Nord molto più avanti, Sud e Isole spesso drammaticamente indietro).

Questa precisazione non è un dettaglio da storici: serve a spostare lo sguardo. La scuola di massa, l’obbligo scolastico, l’idea stessa di “istruzione come diritto universale” sono conquiste relativamente recenti. Un secolo dopo, certo, l’analfabetismo formale è diventato marginale. Ma questo non significa che il problema dell’alfabetizzazione sia risolto: si è trasformato.

Oggi il nodo è un altro: non tanto saper decifrare le lettere, quanto saper comprendere, interpretare, valutare e usare informazioni in contesti reali. È ciò che chiamiamo alfabetizzazione funzionale: leggere testi che non siano banali, orientarsi tra dati numerici, distinguere un argomento da una suggestione, collegare cause ed effetti, affrontare problemi che cambiano mentre li stai risolvendo. In altre parole: le competenze che reggono la vita economica e democratica di una società complessa.

Qui i dati OCSE, i più recenti che abbiamo disposizione su questo aspetto, sono difficili da ignorare. Nel Secondo Ciclo della Survey of Adult Skills (PIAAC, 2022–23), gli adulti italiani (16–65 anni) ottengono in media: 245 punti in literacy, 244 in numeracy, 231 in adaptive problem solving. Tutti valori sotto la media OCSE.

Dire “siamo 15–20 punti sotto” è corretto come ordine di grandezza per literacy/numeracy, ma la parte davvero rilevante per la formazione non è solo il gap medio: è come sono distribuite le competenze.

  • In literacy, il 35% degli adulti è al livello 1 o sotto (media OCSE 26%). Dall’altra parte, solo il 5% raggiunge i livelli 4–5 (media OCSE 12%).
  • In numeracy, di nuovo 35% a livello 1 o sotto (media OCSE 25%) e solo 6% ai livelli 4–5 (media OCSE 14%).

Fin qui molti lettori pensano: “ok, difficoltà note”. Ma il punto che spesso sfugge – e che è cruciale se parliamo di innovazione e futuro del lavoro – è l’area delle competenze “dinamiche”:

  • In adaptive problem solving (risoluzione di problemi in situazioni che cambiano e richiedono adattamento), il 46%degli adulti italiani è al livello 1 o sotto (media OCSE 29%) e solo l’1% arriva al livello più alto misurato (livello 4; media OCSE 5%).

Problem solving adattivo: la competenza necessaria in tempi di AI

Questa è la fotografia più inquietante, perché il problem solving adattivo è una competenza che diventa sempre più centrale proprio nei contesti dove l’IA entra come “agente”: ambienti digitali complessi, lavoro con strumenti intelligenti, decisioni basate su dati, gestione di imprevisti.

In questo contesto, attribuire allo smartphone, all’IA o ai social la responsabilità di un presunto “crollo delle competenze” è poco sensato. I problemi che osserviamo oggi precedono l’IA di decenni. Sono strutturali, non emergenziali. Anzi, in molti contesti formativi e professionali gli scambi comunicativi avvengono con una frequenza allarmante su un piano che possiamo definire sempre più puramente rituale: si partecipa a corsi, riunioni, workshop senza che nessuno – docenti compresi – abbia davvero il tempo di capire a fondo cosa si stia facendo. Non perché manchi l’intelligenza, ma perché manca il tempo cognitivo. A furia di “non avere tempo per capire”, si finisce per fare cose senza capirle.

Qualcuno ricorda la crisi del 2007-2008? Ci ha mostrato cosa succede quando la complessità diventa una barriera cognitiva: prodotti finanziari costruiti per strati successivi, talmente opachi che, dopo pochi passaggi di spiegazione, anche persone istruite faticavano a seguire, ma fare senza capire non pareva essere un problema. Il sistema ha funzionato per un po’ finché non è crollato. E allora dell’AI si parlava solo nei centri specializzati, quindi non era colpa sua.

L’AI: accelerante del declino o dispositivo di rigenerazione?

Il punto è semplice ma scomodo: quando diciamo “l’IA ci farà perdere competenze”, spesso stiamo ragionando come se la scuola e la formazione di oggi fossero già un ecosistema equilibrato, e l’IA fosse un agente esterno che lo disturba. Ma se guardiamo senza nostalgia, vediamo un sistema che già fatica a garantire alfabetizzazione funzionale diffusa, continuità dell’apprendimento nel tempo, capacità di ragionamento critico sotto pressione. L’IA non arriva su un terreno solido: arriva su un terreno fragile. E proprio per questo può essere sia un accelerante del declino, sia un dispositivo di rigenerazione.

Cos’è davvero l’AI agentica (senza tecnicismi)

Non serve essere ingegneri per capire l’AI agentica. Serve essere allenati a costruirsi modelli mentali delle nuove cose che incontriamo. E un buon modello mentale, per funzionare, non deve essere dettagliato: deve essere maneggevole. Quattro-sei pezzi, un’analogia chiara, un confronto con qualcosa che già conosciamo.

L’idea chiave è questa: un’AI agentica non si limita a produrre testo, ma chiude un ciclo tra pensiero e azione.

Un LLM “tradizionale” risponde: genera una sequenza di parole plausibili. Un sistema agentico, invece, lavora come un assistente operativo: interpreta un obiettivo, costruisce un piano, usa strumenti, verifica risultati, corregge. Non è “più intelligente” per magia: è più utile perché è connesso a un ciclo operativo.

Uno schema semplice (spesso chiamato ReAct: Reason + Act) rende bene la logica di fondo dell’AI agentica, anche se nella pratica queste fasi possono essere iterate, compresse o parzialmente sovrapposte.

1) Raccolta di informazioni dal contesto – Capisce cosa sta succedendo e quali risorse sono disponibili: documenti, dati, vincoli, richieste, strumenti.

2) Ragionamento – Comprende che la richiesta non si risolve con una risposta testuale. Serve un’azione: calcolare, cercare, confrontare, generare un file, costruire un grafico, controllare coerenza.

3) Pianificazione rispetto a un obiettivo – Decide come procedere: quali strumenti usare, in quale ordine, con quali controlli intermedi. È la differenza tra “risposta” e “processo”.

4) Azione – Esegue: scrive codice, interroga una base dati, genera una tabella, prepara una bozza strutturata, applica un criterio.

5) Osservazione e loop – guarda l’output, valuta se rispetta l’obiettivo, corregge e ripete. È il meccanismo che trasforma un risultato “probabile” in un risultato “verificato”.

La scorciatoia dell’efficienza: delegare senza capire

Se usiamo l’AI agentica solo per “guadagnare efficienza”, delegando compiti cognitivi senza criterio, il rischio di perdita di competenze è reale. È un rischio antico, non una novità tecnologica: ogni volta che esternalizziamo una funzione, perdiamo allenamento su quella funzione e qui deleghiamo funzioni a piene mani. Le competenze non mancano soltanto per un deficit di formazione iniziale, ma anche perché si perdono se non vengono esercitate. Come i muscoli: se non li usiamo, si atrofizzano. E quando l’allenamento scompare, non scompare con un crollo spettacolare: scompare come un dialetto o una lingua che non si parla più. Un giorno ti accorgi che prima “capivi”, ma adesso fai fatica.

L’altra direzione: restituire tempo cognitivo e qualità dell’attenzione

Ma l’IA agentica può anche essere progettata e usata per fare l’opposto: restituire tempo cognitivo, ridurre il carico esecutivo, liberare energie per comprensione, riflessione, decisione.

Questa è una distinzione decisiva, soprattutto in formazione: non è vero che l’IA “toglie” o “dà” competenze in automatico. Dipende da come la inseriamo nel ciclo dell’apprendimento.

  • Se la usiamo per saltare i passaggi (riassunto al posto della lettura, soluzione al posto del problema), erodiamo le competenze.
  • Se la usiamo per rendere visibili i passaggi (esplicitare ragionamenti, mostrare alternative, chiedere verifiche), allora l’IA può diventare uno strumento di potenziamento.

È qui che entra in gioco il tema dell’AI agentica. In questo senso, non sta solo producendo un output: sta rendendo esplicito e verificabile un processo, che è esattamente la parte che in formazione – e nei contesti decisionali – conta davvero.

Perché questo cambia la formazione

Se usata bene, l’AI agentica può diventare una protesi cognitiva evoluta, non un sostituto del pensiero. Ed è qui che il collegamento con il problem solving adattivo diventa cruciale. Non parliamo di una competenza astratta, ma della capacità di orientarsi in ambienti digitali complessi, di lavorare con strumenti intelligenti che agiscono, suggeriscono, automatizzano, e di prendere decisioni su basi informative incomplete o in continuo cambiamento. È esattamente il tipo di contesto in cui l’IA entra come agente e non più come semplice strumento passivo.

Il paradosso è che proprio qui la formazione tradizionale mostra il suo limite maggiore. Il problema, nella scuola come nella formazione professionale, non è la mancanza di contenuti o di informazioni disponibili. È la mancanza di tempo cognitivo e di dispositivi che permettano di lavorare sui processi. Tempo per scomporre un problema in parti gestibili; per rendere espliciti i passaggi logici; per distinguere un errore di calcolo da un errore di concetto; per confrontare alternative plausibili; per verificare la coerenza di una conclusione prima di agire.

L’AI agentica può sostenere proprio questi passaggi, a condizione che venga progettata come allenatore e non come scorciatoia. Può chiedere “perché hai scelto questa ipotesi?” invece di limitarsi a fornire una risposta; può proporre più percorsi possibili e metterli a confronto; può segnalare dove il ragionamento salta o dove una decisione si regge su un presupposto implicito; può rendere visibile ciò che, nei processi esperti, tende a restare nascosto.

In questo senso, l’IA non semplifica il mondo eliminandone la complessità, ma aiuta a comprenderla e gestirla. A condizione, però, che venga progettata per integrare azione e riflessione, trasformando l’attività in un’occasione di apprendimento significativo. Come ricordava John Dewey, infatti, non si impara dall’esperienza in sé, ma dalla riflessione sull’esperienza.

L’AI agentica può offrire proprio questa possibilità: rendere più stretto e continuo il legame tra prassi e sviluppo delle competenze. Ma perché questo accada, è necessario restituire valore al fare con significato, non al semplice eseguire. L’allenamento di cui abbiamo bisogno, se vogliamo rafforzare le competenze di comprensione e problem solving adattivo, passa da qui: creare contesti in cui l’apprendente non si limita a consumare risposte preconfezionate, ma pratica decisioni, osserva le conseguenze delle proprie scelte e corregge il tiro.

Significa dare rilevanza alla crescita delle competenze e non affidarsi ciecamente ad un ritorno dell’efficienza che darà risultati sul breve termine, ma sarà disastroso sul medio.

Questo è il punto politico-culturale: in una società che non ha ancora completato il passaggio all’alfabetizzazione funzionale, l’IA non è il problema principale. È uno specchio: rende evidente quanto spesso i processi formativi siano rituali, accelerati, poco significativi. Ma può anche essere uno strumento per fare finalmente quel salto che continuiamo a rimandare.

La vera domanda, allora, non è “dove andremo a finire con l’AI nella formazione?”, ma se avremo il coraggio di usarla per uscire dallo status quo invece di difenderlo.

E qui la discriminante non è tecnologica. È strategica: useremo l’agentic AI per delegare il pensiero, o per allenarlo meglio?

guest

0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x