De verrou à moteur: comment les CISO transforment la gestion des risques de l’IA en levier stratégique

L’intelligence artificielle change les règles du jeu en cybersécurité et transforme des schémas d’attaque connus en scénarios de fraude hautement évolutifs. Pour les CISO, l’enjeu ne se limite plus à la simple défense, mais exige une réponse stratégique: comment maîtriser les risques de l’IA sans freiner l’innovation?

Mai 2026, Texte Andreas Heer            4 Min.

À lire dans cet article:

  • L’IA ne se contente pas d’accélérer les attaques, elle les industrialise (p. ex. fraude au CEO, deepfakes, reconnaissance automatisée). Dans ce contexte, la vitesse de réaction devient un facteur stratégique.
  • L’IA générative élargit la surface d’attaque en entreprise: les chatbots, le Shadow AI et surtout les agents d’IA autonomes apportent leur lot de nouveaux risques pour la cyberdéfense.
  • La solution ne réside ni dans l’interdiction ni dans le laisser-faire; l’approche la plus efficace est celle du «Golden Path»: une gouvernance claire en matière d’IA, associée à une culture de l’IA intégrée dans la sensibilisation à la sécurité.

Nous sommes vendredi soir, peu après 17 heures. Le CFO adjoint reçoit un appel du CEO. Sa voix semble tendue, mais maîtrisée. Une transaction stratégique majeure est sur le point d’être conclue, et la contrepartie exige un acompte à très court terme. La confidentialité absolue est essentielle. Les détails suivront par e-mail.

L’e-mail arrive quelques minutes plus tard. Le texte est irréprochable, le ton familier, les références internes sont toutes exactes. Tout semble cohérent. Le CFO adjoint autorise le paiement.
Ce n’est que le lundi matin que la vérité apparaît: le CEO n’était pas du tout en réunion à ce moment-là. Sa voix avait été générée synthétiquement, et l’e-mail rédigé par une IA. Quant aux informations contextuelles, elles provenaient de sources publiques, croisées avec quelques recherches préliminaires ciblées d’ingénierie sociale.

Ce qui s’est produit ici n’est pas une cyberattaque très complexe. C’est un scénario de fraude standardisé, assisté par l’IA et mis en œuvre avec peu d’obstacles techniques.

Les attaques gagnent en rapidité – et en efficacité

Cet exemple de fraude au CEO illustre une évolution fondamentale du paysage des menaces. L’intelligence artificielle permet aux assaillants de déployer l’ingénierie sociale à grande échelle, de personnaliser les contenus et de varier les attaques à un rythme soutenu. La qualité et la vitesse augmentent de concert. L’IA dans le domaine de la cybersécurité est une tendance qui prend rapidement de l’importance. C’est ce que montre également la dernière édition du  Swisscom Cybersecurity Threat Radar.

Pour les CISO, la donne change. En effet, avec l’IA, les cybercriminels ne se contentent pas de concevoir des e-mails de phishing convaincants. «Ils automatisent aussi la détection des vulnérabilités, la reconnaissance, et peuvent développer des logiciels malveillants plus sophistiqués», explique Collin Geisser, Lead Security Architect chez Swisscom. C’est ce que démontre «VoidLink», un malware Linux sophistiqué qui aurait été créé à l’aide de l’IA et qui dispose de fonctionnalités que seuls des groupes APT disposant de ressources importantes sont généralement capables de développer. À cela s’ajoutent les deepfakes audio et vidéo qui sont de plus en plus difficiles à détecter. La barrière à l’entrée s’abaisse donc, tandis que la force de frappe opérationnelle augmente.

Pour le SOC, cette évolution a des conséquences: les processus de tri manuel atteignent leurs limites temporelles. Lorsque les attaques sont orchestrées de manière automatisée, la défense doit elle aussi s’appuyer sur des moyens automatisés, par exemple grâce au tri des alertes assisté par IA ou à des playbooks automatisés. Car le temps devient un facteur stratégique pour les CISO. Celui qui réagit en quelques heures a déjà perdu face à un assaillant qui opère en quelques minutes.

La nouvelle surface d’attaque: chatbots, Shadow AI et agents IA

Parallèlement, les entreprises exploitent l’IA de manière productive, notamment via des chatbots, des solutions d’automatisation ou des agents. Il en résulte un double défi: l’IA renforce à la fois la menace des assaillants et la surface d’attaque des entreprises. Pour les CISO, la question se pose donc de savoir comment maîtriser stratégiquement les risques liés à l’IA sans entraver l’innovation de l’entreprise.

Parallèlement à l’aggravation de l’état des menaces externes, de nouvelles surfaces d’attaque internes apparaissent au sein de l’entreprise. Les collaborateurs utilisent des services LLM (Large Language Models), les départements spécialisés expérimentent avec des agents d’IA autonomes, les chatbots ont accès à des bases de connaissances internes. L’innovation progresse – souvent plus vite que la gouvernance ne peut suivre. En particulier lorsque des fonctionnalités d’IA sont de plus en plus souvent intégrées aux offres SaaS utilisées.
Les risques découlent principalement d’une utilisation incontrôlée. Les principaux domaines de risque sont les suivants:

  • Le téléchargement de données professionnelles sensibles dans des modèles publics 
  • L’utilisation non réglementée de données professionnelles par les fournisseurs d’IA générative, par exemple pour l’entraînement des LLM 
  • La potentielle violation des lois sur la protection des données ou des réglementations spécifiques à la branche 
  • Des pistes d’audit incomplètes lorsque les activités liées aux services d’IA générative ne peuvent pas être consignées

L’IA agentique – quand les logiciels agissent par eux-même

MLes systèmes basés sur des agents ont donné naissance à une nouvelle classe de risque. Ces systèmes ne se contentent pas de générer du contenu, ils exécutent également des actions de manière autonome sur le web, dans les applications et au sein du système de fichiers local.

Cela donne lieu à de nouveaux scénarios de menaces. Des chercheurs en sécurité ont récemment montré à quoi ceux-ci pouvaient ressembler. Ils ont développé «Morris II», un ver IA capable d’exfiltrer des données et de se propager de lui-même via des agents IA. 

Voici les risques qui se cachent derrière l’utilisation d’agents IA:

  • Injection de prompts via des e-mails et des sites web malveillants  
  • Installation de malwares via des extensions («Skills») malveillantes pour les agents 
  • Exfiltration de données, par exemple lorsque des données d’accès sont saisies sur des sites web malveillants

Trouver le juste milieu dans l’utilisation de l’IA

L’expérience montre qu’une interdiction pure et simple de tels services conduit à l’émergence d’une Shadow IT ou en l’occurrence d’une Shadow AI. Une approche «Golden Path» s’avère plus efficace: les entreprises mettent à disposition des environnements d’IA sécurisés et conformes à leurs politiques, et définissent des directives d’utilisation à cet effet. «En pratique, cela signifie que des mesures d’accompagnement sont déjà mises en œuvre, comme un avertissement via proxy lors de l’accès à des services d’IA ou le blocage des navigateurs IA. Mais de manière générale, les outils d’IA ne sont pas bloqués», explique Collin Geisser.

Il est essentiel de mettre en place une politique nuancée qui tienne compte des différents niveaux de risque, par exemple:

  • Systèmes RAG internes avec base de données contrôlée, utilisés comme chatbots de connaissances 
  • Utilisation des services d’IA générative publics avec des restrictions claires 
  • Prescriptions de gouvernance strictes pour les agents d’IA autonomes

Dans ce contexte, des questions se posent auxquelles chaque entreprise doit répondre elle-même, souligne M. Geisser: «La frontière est mince entre le blocage des innovations et le renforcement de la sécurité. Ce sujet doit être abordé de manière ciblée par les départements de sécurité.»

Cela implique notamment de répondre à des questions comme celles-ci:

  • Quelle utilisation de l’IA acceptons-nous sciemment comme risque résiduel? 
  • Dans quel cas un contrôle technique est-il impératif, dans quel autre la gouvernance suffit-elle? 
  • Quels risques liés à l’IA constituent des risques commerciaux et non des risques de sécurité?

Outre les risques techniques et organisationnels, la dimension réglementaire de l’IA gagne également en importance. Les lois sur la protection des données, les prescriptions propres à chaque branche et les nouvelles réglementations spécifiques à l’IA exigent de la transparence quant à l’endroit et la manière dont l’IA est utilisée en entreprise, de la transparence sur les données traitées et sur les personnes qui en sont responsables.
 
Pour les CISO, cela signifie que les risques liés à l’IA ne peuvent pas être traités de manière isolée comme une simple question informatique, mais doivent être intégrés dans les structures existantes de gouvernance, de gestion des risques et de conformité. L’essentiel n’est pas tant d’anticiper chaque détail réglementaire que d’établir des responsabilités claires, des classifications des risques et une documentation adéquate. La réglementation passe ainsi d’une obligation réactive à un instrument stratégique qui instaure la confiance – en interne comme en externe – et qui rend possible une utilisation contrôlée de l’IA.

La gouvernance à l’ère des agents

La gouvernance des agents d’IA doit aller plus loin que celle des applications classiques. Chaque instance d’IA doit disposer de sa propre identité, grâce à laquelle elle peut non seulement être identifiée, mais aussi réglementée. Ainsi, des principes comme celui du moindre privilège devraient également s’appliquer aux agents d’IA. Les identités constituent la base permettant de rendre les actions des agents traçables et vérifiables. Cela implique également de conserver une vue d’ensemble des agents utilisés, sous la forme d’un inventaire.

Une approche possible pour définir une gouvernance de l’IA consiste à mettre en place un comité composé de CISO, de responsables de la protection des données et de représentants de l’entreprise. L’objectif est de parvenir à une évaluation commune des risques et à une attribution claire des responsabilités.

La sensibilisation à la sécurité s’étend

L’utilité et la simplicité de l’IA générative incitent les collaborateurs à utiliser ces services, qu’ils soient officiellement autorisés ou non. L’utilisation de tels outils ne relève pas seulement de la gouvernance, mais devient, dans le quotidien professionnel, un sujet de sensibilisation à la sécurité. Il s’agit moins ici de sensibilisation au sens strict que de culture de l’IA, c’est-à-dire des compétences nécessaires pour utiliser correctement l’IA. Les collaborateurs doivent comprendre les atouts et les limites des modèles, y compris les hallucinations et les biais. Ils doivent également connaître et comprendre les règles de gouvernance.

De la même manière, ils doivent être conscients des menaces posées par les cyberattaques assistées par IA. Les simulations de phishing classiques ne suffisent plus dans ce contexte. Les programmes de sensibilisation doivent donc être élargis de manière à inclure les éléments suivants:

  • Gestion des contenus générés par IA: tout ce qui semble plausible ne l’est pas nécessairement 
  • Sensibilisation aux deepfakes: reconnaître les indices, réfléchir à des questions de contrôle 
  • Mécanismes de vérification en cas de demandes inhabituelles: processus de vérification pour les e-mails et les messages instantanés suspects, demandes de précisions via un autre canal  
  • Promotion d’une culture «Human-in-the-Loop»: examen des étapes proposées par un agent IA, contrôle des résultats

Collin Geisser a également constaté de bons résultats en organisant, dans le cadre des mesures de sensibilisation, des sessions ciblées d’injection de prompt: «Constater à quel point il est facile de mener en bateau même les acteurs les plus chevronnés ouvre les yeux sur les risques».

Le CISO, de verrou à moteur

Les CISO sont confrontés à une évolution de leur rôle: ceux qui interdisent tout simplement l’IA freinent l’innovation et incitent au Shadow AI. Ceux qui l’autorisent de manière incontrôlée risquent une perte de données et de maîtrise. La mission stratégique du CISO consiste à définir des lignes directrices, à favoriser l’innovation et à renforcer la résilience face aux cyberattaques assistées par IA. Il s’agit donc de trouver ce Golden Path, de structurer la gestion des identités IA privilégiées et de renforcer les compétences des collaborateurs.

Dans le même temps, les CISO doivent explorer le potentiel de l’IA générative dans leur propre cyberdéfense, afin de détecter et bloquer à temps la prochaine tentative de fraude au CEO.

Swisscom Cybersecurity Threat Radar 2026: risques IA, chaîne d’approvisionnement, souveraineté numérique et sécurité OT – coup d’œil sur les cybertendances. 

Autres articles intéressants