Da gatekeeper a enabler: come i CISO gestiscono strategicamente i rischi dell’IA

L’intelligenza artificiale cambia le regole della cybersicurezza, trasformando modelli di attacco noti in scenari di frodi altamente scalabili. Per i CISO non si tratta più soltanto di difendersi, bensì di rispondere in modo strategico: come si possono gestire i rischi dell’IA senza frenare l’innovazione?

Maggio 2026, Testo Andreas Heer            4 Min.

In questo articolo potete leggere:

  • Come l’IA accelera e rende più professionali gli attacchi (come CEO Fraud, deepfake, reconnaissance automatizzata) e perché il tempo di reazione diventa un fattore strategico.
  • Come l’IA produttiva amplia l’area di attacco nell’azienda: chatbot, Shadow AI e agenti IA particolarmente autonomi comportano nuovi rischi per la cyberdifesa.
  • Perché l’approccio più efficace non è né un divieto né una diffusione incontrollata, bensì un «Golden Path» con una chiara governance IA, combinata con l’AI Literacy nella Security Awareness.

È venerdì sera, poco dopo le 17. Il sostituto CFO riceve una telefonata dal CEO. La voce sembra tesa, ma controllata. Un accordo strategicamente importante sta per essere concluso, la controparte chiede un acconto a breve termine. La riservatezza assoluta è fondamentale. I dettagli seguiranno via e-mail.

L’e-mail arriva pochi minuti dopo. Senza errori, con un tono familiare, con referenze interne corrette. Tutto sembra coerente. Il sostituto CFO autorizza il pagamento.

Solo lunedì mattina si scopre che in quel momento il CEO non era nemmeno presente. La voce era stata generata in modo artificiale, l’e-mail era stata scritta con l’IA. Le informazioni di base provenivano da fonti pubblicamente accessibili e da alcune attività preparatorie mirate di social engineering.

Ciò che è accaduto qui non è stato un cyberattacco molto complesso. Si è trattato di uno scenario di frode standardizzato basato sull’IA, attuato con pochi ostacoli di natura tecnica.

Gli attacchi diventano più rapidi e migliori

Questo esempio di CEO Fraud illustra in maniera esemplare il cambiamento radicale del panorama delle minacce. L’intelligenza artificiale consente agli hacker di scalare il social engineering, personalizzare i contenuti e variare gli attacchi con una frequenza elevata. La qualità e la velocità aumentano contemporaneamente. L’IA nella cybersicurezza è una tendenza che sta rapidamente acquisendo importanza. Lo dimostra anche l’ultima edizione dello Swisscom Cybersecurity Threat Radar.

Per i CISO, la situazione di partenza è cambiata. Con l’IA, infatti, i cybercriminali non possono solo creare e-mail di phishing convincenti. «Automatizzano anche l’individuazione delle lacune, la reconnaissance, e possono sviluppare malware più sofisticati,» afferma a tal proposito Collin Geisser, Lead Security Architect di Swisscom. Lo dimostra «VoidLink,» un ingegnoso malware Linux che presumibilmente è stato creato con l’IA e dispone di funzioni che normalmente possono essere sviluppate solo da gruppi APT ben attrezzati. A ciò si aggiungono deepfake audio e video sempre più difficili da riconoscere. La barriera all’ingresso diminuisce, mentre l’efficacia operativa aumenta.

Questo cambiamento ha delle conseguenze per il SOC: i processi di smistamento manuali ormai non sono più applicabili. Quando gli attacchi sono orchestrati meccanicamente, anche la difesa deve essere supportata dalle macchine, ad esempio con il supporto dell’IA nello smistamento degli avvisi o con playbook automatizzati. Perché il tempo diventa un fattore strategico per i CISO. Chi impiega ore a reagire potrebbe perdere contro gli hacker che operano nell’arco di minuti.

La nuova area di attacco: chatbot, Shadow AI e agenti AI

Allo stesso tempo, le aziende utilizzano l’IA in modo produttivo, con chatbot, soluzioni di automazione o agenti. Da ciò nasce una duplice sfida: l’IA rafforza sia la minaccia da parte degli hacker sia l’area di attacco delle aziende. Per i CISO, quindi, si pone la questione di come gestire strategicamente i rischi dell’IA senza ostacolare l’innovazione aziendale.

Parallelamente all’inasprimento delle minacce esterne, nell’azienda si sviluppano nuove aree di attacco interne.
I collaboratori utilizzano i servizi LLM (Large Language Models), i settori specialistici sperimentano con agenti IA autonomi , i chatbot ottengono l’accesso a knowledge base interne. L’innovazione va avanti, ma spesso la governance non riesce a stare al passo. Soprattutto se le funzioni IA rientrano sempre più spesso nelle offerte SaaS utilizzate.

I rischi derivano soprattutto da un utilizzo incontrollato. Gli ambiti di rischio tipici sono:

  • Il caricamento di dati aziendali sensibili in modelli pubblici 
  • L’uso non regolamentato di dati aziendali da parte dei fornitori GenAI, ad esempio per l’addestramento di LLM 
  • Potenziale violazione di leggi sulla protezione dei dati o di normative specifiche del settore 
  • Audit trail incompleti se non è possibile registrare le attività svolte presso i servizi GenAI

Agentic AI: quando il software agisce autonomamente

Con i sistemi basati su agenti nasce una nuova classe di rischio. Questi sistemi non solo generano contenuti, ma eseguono autonomamente azioni nel web, nelle applicazioni e nel file system locale.

Questo porta a nuovi scenari di minaccia. Di recente gli esperti di sicurezza hanno illustrato quali possono essere. Con «Morris II» hanno sviluppato un worm IA in grado di esfiltrare i dati e diffondersi autonomamente tramite agenti IA. 

L’impiego di agenti IA comporta i seguenti rischi:

  • Prompt injection attraverso e-mail e siti web malevoli  
  • Installazione di malware tramite estensioni malevoli («skill») per gli agenti 
  • Esfiltrazione dei dati, ad esempio inserendo credenziali di accesso su siti web malevoli

Trovare il giusto equilibrio nella gestione dell’IA

Per esperienza, il mero divieto di tali servizi porta allo Shadow IT, in questo caso Shadow AI. Un approccio «Golden Path» è più efficace: le aziende mettono a disposizione ambienti IA sicuri e conformi all’azienda e definiscono le linee guida per l’utilizzo. «In pratica, ciò significa che sono già state implementate misure di accompagnamento, come un avviso proxy all’accesso ai servizi IA o il blocco dei browser IA. In generale, però, gli strumenti IA non sono bloccati,» afferma Geisser.

A tale proposito è decisiva una policy differenziata che tenga conto dei diversi gradi di rischio, ad esempio:

  • Sistemi RAG interni con database controllati come chatbot di conoscenze 
  • Utilizzo di servizi di GenAI pubblici con chiare limitazioni 
  • Rigorose disposizioni di governance per agenti IA autonomi

In questo contesto, sorgono domande alle quali ogni azienda deve rispondere individualmente, sottolinea Geisser: «C’è una linea sottilissima che separa il blocco delle innovazioni e il rafforzamento della sicurezza. È una questione che la sicurezza deve affrontare in modo mirato.»

Ciò include rispondere a domande quali:

  • Quale utilizzo dell’IA accettiamo consapevolmente come rischio residuo? 
  • Dove è obbligatorio un controllo tecnico, dove è sufficiente la governance? 
  • Quali rischi IA sono rischi aziendali e non rischi di sicurezza?

Oltre ai rischi tecnici e organizzativi, anche la dimensione normativa dell’IA sta diventando sempre più importante. Le leggi sulla protezione dei dati, le disposizioni specifiche del settore e le nuove regolamentazioni specifiche sull’IA richiedono trasparenza su dove e come viene utilizzata l’IA all’interno dell’azienda, su quali dati vengono trattati e su chi ne è responsabile. 

Per i CISO, ciò significa che i rischi dell’IA non possono essere trattati separatamente come una questione puramente informatica, ma devono essere integrati nelle strutture esistenti di governance, rischio e conformità. Non è tanto importante anticipare ogni dettaglio normativo, quanto stabilire chiare responsabilità, classificazioni dei rischi e documentazioni. In questo modo, anziché essere un programma obbligatorio reattivo la regolamentazione diventa uno strumento strategico che crea fiducia, sia internamente che esternamente, e rende possibile l’impiego controllato dell’IA.

La governance nell’era degli agenti

Con gli agenti IA la governance deve andare oltre rispetto alle applicazioni tradizionali. Ogni istanza IA necessita di una propria identità, attraverso la quale non solo può essere identificata, ma anche regolamentata. Ad esempio, i principi del Least Privilege dovrebbero valere anche per gli agenti IA. Le identità sono la base per configurare le azioni degli agenti in modo tracciabile e verificabile. Ciò presuppone anche che si mantenga una visione d’insieme sotto forma di inventario degli agenti impiegati.

Un possibile approccio per la definizione di una governance IA è un comitato composto da CISO, responsabili della protezione dei dati e rappresentanti del business. L’obiettivo è valutare congiuntamente i rischi e assegnare chiaramente le responsabilità.

La Security Awareness si allarga

I vantaggi e le comodità della GenAI fanno sì che i dipendenti utilizzino tali servizi indipendentemente dal fatto che siano ufficialmente rilasciati o meno. L’uso di tali tool non è solo una questione di governance, ma anche un tema di Security Awareness nella quotidianità lavorativa dei collaboratori. Non si tratta tanto di awareness in senso stretto quanto di AI Literacy, ovvero delle competenze nella gestione dell’IA. I collaboratori devono comprendere i punti di forza e i limiti dei modelli, comprese le allucinazioni e i bias. Ciò implica anche che i collaboratori conoscano e comprendano le regole di governance.

Allo stesso modo, i collaboratori devono essere consapevoli delle minacce generate dagli cyberattacchi supportati dall’IA. In questo caso, le classiche simulazioni di phishing non sono sufficientemente efficaci. I programmi di awareness dovrebbero pertanto essere ampliati per includere:

  • Gestione dei contenuti generati dall’IA: non tutto ciò che sembra plausibile lo è 
  • Sensibilizzazione sui deepfake: riconoscere i segnali, riflettere sulle domande di controllo 
  • Meccanismi di verifica in caso di richieste insolite: processo di verifica per e-mail e richieste di messaggistica sospette, richieste di chiarimento tramite altro canale  
  • Promozione di una cultura «human in the loop»: verifica delle misure proposte da un agente IA, controllo dei risultati

Geisser ha inoltre avuto buone esperienze svolgendo sessioni mirate di prompt injection nell’ambito delle misure di awareness: «Vedere quanto sia facile prendere in giro anche gli attori esperti apre gli occhi sui rischi.»

CISO: da ostacolo a enabler

I CISO si trovano di fronte a un cambio di ruolo: chi vieta l’IA frena l’innovazione e promuove la Shadow AI. Chi la accetta in modo incontrollato rischia di perdere dati e controllo. Il compito strategico del CISO consiste nel definire linee guida, favorire l’innovazione e sviluppare la resilienza contro gli cyberattacchi basati sull’IA. Si tratta quindi di trovare il Golden Path, regolamentare la gestione delle identità privilegiate dell’IA e rafforzare le competenze dei collaboratori.

Allo stesso tempo, i CISO devono esplorare il potenziale della GenAI nella loro cyberdifesa, in modo da poter individuare e bloccare per tempo il prossimo tentativo di CEO Fraud.

Swisscom Cybersecurity Threat Radar 2026: rischi IA, attacchi Supply Chain, sovranità digitale e OTSecurity. Panoramica delle principali tendenze informatiche. 

Maggiori informazioni: