I collaboratori vogliono utilizzare i tool di IA, indipendentemente dal fatto che il datore di lavoro li metta a disposizione o meno. Questa Shadow AI comporta rischi, ma anche opportunità, come spiega nell’intervista Beni Eugster, Cloud Operation and Security Officer di Swisscom.
Aprile 2025, testo Andreas Heer 5 min.
L’intelligenza artificiale generativa (GenAI) è un ausilio per il lavoro quotidiano, motivo per cui i collaboratori usano volentieri tool come Microsoft Copilot, ChatGPT, Perplexity.ai o Google Gemini. Se il datore di lavoro non mette a disposizione gli strumenti necessari, i collaboratori agiscono quindi in autonomia usando il tool di loro scelta con account privati. Il Work Trend Index 2024(apre una nuova finestra) di Microsoft ha rivelato che circa l’80 percento di coloro che utilizzano la GenAI lo fanno anche al lavoro. Questa «Shadow AI» pone le aziende di fronte a problematiche simili a quelle della Shadow IT, ovvero l’utilizzo per scopi professionali di apparecchi e servizi cloud privati e non approvati. Nell’intervista Beni Eugster spiega quali sono i rischi principali e perché la Shadow AI offre anche delle opportunità.
L’entità del problema varia notevolmente a seconda del settore, delle dimensioni dell’azienda, della struttura IT e della criticità di dati e servizi. Tuttavia, poiché sempre più aziende utilizzano tecnologie basate sull’IA, aumenta anche il rischio di un utilizzo dell’IA non supervisionato e non autorizzato esplicitamente. La Shadow AI comporta rischi significativi per la sicurezza dei dati, la conformità e la reputazione dell’azienda. Il problema risiede soprattutto nel fatto che, come nel caso della Shadow IT, molti servizi basati sull’IA sono disponibili gratuitamente o a basso costo su internet. Aumenta quindi il rischio che i collaboratori utilizzino servizi non autorizzati per lavorare in modo efficiente, che però, a sua volta, rappresenta un’opportunità per l’azienda.
Il principale problema della Shadow AI riguarda la sicurezza dei dati e la conformità. A seconda del motivo di utilizzo, può interessare diversi dati: ad esempio dati dei clienti, informazioni del personale, comunicazioni interne, lacune interne, password, relazioni sulla gestione, codici e altre informazioni sensibili normalmente protette da direttive e misure di sicurezza informatica. Le tecnologie basate sull’IA vanno equiparate ad altri processi di trattamento dei dati. Ciò significa che devono applicarsi gli stessi regolamenti validi, ad esempio, per i dati personali. Occorre pertanto analizzare nel dettaglio i rischi e il flusso di dati(apre una nuova finestra).
Stiamo anche assistendo alla nascita di nuove disposizioni specifiche per l’utilizzo dell’intelligenza artificiale in relazione a dati sensibili e, in generale, per l’impiego di modelli di IA addestrati sulla base di determinati dati.
Spesso i reparti IT non hanno una visione d’insieme o alcun controllo sui dati elaborati da questi tool di IA. Delle conseguenze possono essere il salvataggio di dati riservati su piattaforme non sicure, l’utilizzo dei dati per l’addestramento dei modelli o l’accesso ai dati da parte di persone non autorizzate. Inoltre, l’uso della Shadow AI può violare la conformità alle normative legali e contrattuali che disciplinano la gestione e l’archiviazione sicure dei dati.
Se le aziende riscontrano un incidente di sicurezza correlato alla Shadow AI, dovrebbero adottare immediatamente misure per indagare sull’episodio e ridurne al minimo le conseguenze, come avviene per qualsiasi incidente. La procedura può includere un’analisi forense dell’incidente e l’avvio di una valutazione del rischio, ad esempio in collaborazione con il SOC o il CSIRT(apre una nuova finestra). L’analisi può comprendere anche nuove verifiche, ad esempio se i dati immessi verranno utilizzati per l’addestramento e se è possibile cancellarli. Quindi, dovrebbero essere adottate misure preventive per evitare che simili incidenti si ripetano in futuro.
Le aziende possono concepire dei processi formali per verificare e approvare nuove applicazioni e nuovi tool di IA e offrire corsi di formazione e supporto al personale per un utilizzo sicuro di questi tool. Invece di imporre un divieto assoluto, che spesso si rivela inefficace, le organizzazioni dovrebbero elaborare un piano strategico per un uso sicuro di queste applicazioni. Un piano di questo tipo può ad esempio prevedere la messa a disposizione dei collaboratori di un modello GPT privato e interno all’azienda anziché l’utilizzo di modelli pubblici.
L’esperienza insegna che un confronto aperto tra personale, reparti IT e team addetti alla sicurezza è utile per scoprire quali tool di IA possono essere vantaggiosi per l’azienda e definire allo stesso tempo misure di protezione. Se un’azienda comprende le esigenze dei collaboratori e del settore, può offrire tool di IA adeguati in un contesto regolamentato.
«I collaboratori vogliono utilizzare i tool di IA, indipendentemente dal fatto che il datore di lavoro li metta a disposizione o meno. La Shadow AI comporta rischi, ma anche opportunità.»
Beni Eugster, Cloud Operation and Security Officer di Swisscom
Le misure tecniche possono essere l’implementazione di soluzioni per identificare o bloccare tool di IA non autorizzati. Esistono ad esempio soluzioni come i cosiddetti Secure Browser e proxy di rete nonché con proprietà tipiche di SASE o CASB. Questi strumenti si occupano da tempo di aspetti come la Data Loss Prevention (DLP) e possono quindi contribuire a garantire un utilizzo sicuro dell’IA. Allo stesso obiettivo punta inoltre una nuova generazione di soluzioni incentrate proprio sulla Shadow AI.
Le misure organizzative possono invece comprendere direttive e procedure che richiedono il consenso del reparto IT per l’utilizzo di nuovi tool di IA e offrono corsi di formazione sui rischi legati all’utilizzo della Shadow AI.
Le aziende dovrebbero investire quanto prima in nuove tecnologie di sicurezza, organizzare corsi di formazione regolari sulla sicurezza e stabilire direttive e procedure rigorose per l’uso sicuro dell’IA. Inoltre, possono assumere o formare esperti di cibersicurezza specializzati in rischi per la sicurezza legati all’IA.
Penso che possiamo aspettarci altre novità. E poiché le tecnologie si sviluppano così rapidamente, è importante cercare di starne al passo fin da subito e prenderne dimestichezza, ad esempio con piccoli test. Su questa base, un’azienda può prendere decisioni migliori per un utilizzo a livello aziendale.
Beni Eugster è Cloud Operation and Security Officer presso lo Swisscom Outpost nella Silicon Valley. Si occupa della tematica sempre più pressante della sicurezza dell’IA (AI Security) e testa nuove soluzioni come tool di pentesting automatici e meccanismi di protezione (Guardrails) per applicazioni di IA.