cybersecurity

L’inconsapevole fuga di dati: come l’uso aziendale di ChatGPT espone a rischi di riservatezza



Indirizzo copiato

L’adozione dell’AI generativa nelle aziende spesso avviene senza la consapevolezza dei rischi connessi. Dall’immissione di codice proprietario a strategie finanziarie, le imprese stanno involontariamente “addestrando” i modelli con i loro segreti aziendali. Cosa fare

Pubblicato il 18 nov 2025

Andrea Carobene

AI Ethicist and Specialist



Protezione dati aziendali: cosa fare
Protezione dati aziendali: cosa fare

Nell’aprile del 2023, la divisione semiconduttori di Samsung Electronics ha registrato tre fughe di dati riservati. In due casi, alcuni dipendenti avevano caricato parti di codice sorgente su ChatGPT per effettuarne il debug; nel terzo caso si trattava invece della minuta di un meeting, caricata per generare un resoconto dell’incontro. A seguito di questi episodi, Samsung ha deciso di proibire l’uso di strumenti come ChatGPT all’interno dell’azienda, prima di predisporre adeguate contromisure.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x