Agents au bord du gouffre: l’IA autonome, nouvelle surface d’attaque dans la cybersécurité

Un agent IA qui installe des logiciels, analyse des e-mails et prend des décisions de manière autonome: ce gain de productivité donne des sueurs froides à la cyberdéfense. En effet, ces mêmes compétences censées soulager les collaborateurs ouvrent de nouvelles surfaces d’attaque, à l’instar de l’IA générative en général. Avec des conséquences pour la sécurité.

Mai 2026, Texte Andreas Heer            4 Min.

À lire dans cet article:

  • Les agents d’IA autonomes peuvent certes augmenter la productivité, mais ils peuvent aussi offrir de nouvelles surfaces d’attaque dangereuses.
  • L’IA renforce également les assaillants et oblige la cyberdéfense à s’adapter.
  • La sécurité de l’IA devient une mission qui relève à la fois de la conception et de la direction.

Cela ressemble à un rêve: OpenClaw fonctionne comme un agent IA local qui automatise pratiquement toutes les tâches: «Crée-moi un site web dédié à l’événement avec une fonction d’inscription. Utilise des frameworks CSS et JavaScript connus pour la mise en œuvre et installe tout dans le répertoire du projet.» «Parcours mes e-mails à la recherche de tâches importantes et ajoute-les à la liste des tâches.» «Crée-moi une présentation à partir des informations contenues dans mon dossier de projet. Préviens-moi sur WhatsApp quand tu auras terminé.»

Des agents IA qui tiennent autant du rêve que du cauchemar

Il n’est pas étonnant que l’annonce d’OpenClaw en janvier 2026 ait fait grand bruit. Ce projet open source lancé sous le nom de Clawdbot, puis Moltbot, utilise un LLM via une API et dispose de nombreuses compétences que l’agent peut mettre en œuvre de manière autonome: exécution de commandes shell locales, accès à Internet, installation de logiciels, communication via diverses messageries instantanées. Et les capacités manquantes peuvent être complétées par ce que l’on appelle des «skills».

OpenClaw est devenu viral à double titre: le projet a obtenu plus de 360 000 étoiles sur GitHub en avril, et il a aussi plongé les services de cybersécurité des entreprises dans un véritable cauchemar. Toutes les craintes en matière de sécurité concernant les agents IA se sont concrétisées pratiquement du jour au lendemain: injection de prompts, fuite de données, porte d’entrée pour les cyberattaques, installation de logiciels malveillants, exfiltration de clés API et de données d’accès via les fichiers de configuration d’OpenClaw. Et pour couronner le tout, des attaques de type «supply chain» contre des services Internet via des skills contaminés. Un exemple illustrant cette situation: «ClawHawoc» Des chercheurs en sécurité ont découvert que sur plus de 10 000 skills disponibles sur le marketplace ClawHub, près de 10% contiennent des logiciels malveillants.

Certes, OpenClaw constitue peut-être un exemple extrême de faille de sécurité. Mais ce projet met en évidence les nouvelles surfaces d’attaque qui peuvent apparaître en entreprise lorsque celles-ci font appel à des agents IA autonomes. Il n’est donc pas surprenant que le Swisscom Cybersecurity Threat Radar considère également l’IA comme une tendance à la hausse dans l’environnement de sécurité. La protection contre de telles attaques et leur détection font partie des missions de la cyberdéfense, qui doit s’adapter à des scénarios en constante évolution.

Dès lors que les services spécialisés commencent à évaluer les agents IA ou à les déployer en production de leur propre initiative, la sécurité de l’IA devient une responsabilité de la direction. En effet, les agents autonomes ne sont plus des outils classiques: ils agissent avec leurs propres autorisations, souvent en dehors de mécanismes de contrôle établis. Attendre avant d’agir, c’est prendre le risque que les questions de sécurité ne soient soulevées qu’une fois l’agent déjà opérationnel.

L’IA comme assistant de travail – pour les cybercriminels

OpenClaw a été en grande partie développée avec et par l’IA. Les possibilités offertes par l’IA générative, comme le «vibe coding», n’ont pas échappé aux cybercriminels. L’IA ne simplifie pas seulement la rédaction d’e-mails de phishing d’un réalisme trompeur dans différentes langues – et sans fautes d’orthographe. Avec «VoidLink», des chercheurs en sécurité ont également découvert un malware Linux en circulation, probablement largement conçu à l’aide de l’IA. Il ne s’agit pas pour autant de l’émergence de nouveaux groupes criminels grâce à l’IA. Ce sont plutôt les acteurs existants qui utilisent ces outils pour «mettre à niveau» leurs compétences: VoidLink présente des caractéristiques que l’on ne trouvait jusqu’à présent que dans les logiciels malveillants de collectifs bien équipés comme les groupes APT. 

Cela signifie que les attaques émanant des cybercriminels «ordinaires» deviennent elles aussi plus sophistiquées. «L’IA permet aux assaillants de développer des ‹exploits› pour des systèmes qu’ils ne connaissent même pas», explique Collin Geisser, Lead Security Architect chez Swisscom. «Cela augmente la surface d’attaque potentielle.»

Les formes de fraude deviennent elles aussi plus sophistiquées, «grâce» aux deepfakes. Les enregistrements audio avec des voix falsifiées ou des vidéos générées par IA rendent l’ingénierie sociale ou la fraude au CEO particulièrement crédibles. En Suisse, un cas a été révélé en janvier: des criminels inconnus se sont fait passer, en utilisant le voice cloning par téléphone, pour des partenaires commerciaux connus et ont réussi à convaincre l’entrepreneur concerné d’effectuer un paiement de plusieurs millions de francs.

Au-delà de la fraude, ce sont tous les processus reposant sur la reconnaissance vocale ou faciale pour l’identification qui pourraient être contournés par l’IA. La détection des deepfakes compte sans aucun doute parmi les tâches les plus exigeantes de la cyberdéfense et nécessite une combinaison de mesures techniques et de sensibilisation à la sécurité pour renforcer la vigilance des collaborateurs.

L’IA au service de la cyberdéfense 

Avec l’IA, les cyberattaques ne deviennent pas seulement plus sophistiquées, elles sont aussi plus rapides. L’exploitation des failles de sécurité et la mise en œuvre d’attaques automatisées réduisent la fenêtre de détection et de réaction. Mais la Threat Detection and Response (TDR) peut pour ainsi dire battre les cybercriminels à leur propre jeu. En effet, l’IA peut également rendre de grands services dans la détection des attaques. C’est le cas par exemple pour identifier des schémas d’attaque dans de grands volumes de données log, reconstruire des chronologies d’événements ou analyser des logiciels malveillants – en quelque sorte le «vibe decoding».

Les compétences des analystes SOC évoluent également. L’IA peut aider les profils moins expérimentés à analyser des menaces complexes. Et transformer un rapport technique en une synthèse compréhensible pour les managers est une tâche plutôt simple pour l’IA. L’IA peut aussi assister les spécialistes lors des Penetration Tests ou des tests de sécurité des applications, explique Collin Geisser: «Des tâches comme le fuzzing peuvent être automatisées grâce à l’IA, ce qui permet de réduire la charge de travail et les coûts liés à ces tests».

D’une manière générale, l’IA modifie le rôle des spécialistes. Les tâches fastidieuses et minutieuses disparaissent progressivement, laissant place à des analystes qui orchestrent des processus automatisés. Il ne s’agit pas de remplacer les êtres humains, mais de les soulager. Ils peuvent ainsi se concentrer davantage sur les tâches qui requièrent une expertise humaine. C’est le cas par exemple de la classification des incidents et de la mise en œuvre des mesures appropriées pour l’Incident Response. Le principe clé de l’utilisation de l’IA dans un SOC est le «human in the loop»: l’IA automatise, l’humain contrôle et décide.

L’instant «Glasswing»: un tournant dans la cybersécurité?

Claude «Mythos» d’Anthropic pourrait marquer un tournant dans l’utilisation de l’IA, tant dans le domaine de la cyberdéfense que chez les cybercriminels. Ce modèle, qui n’est pas accessible au public, a démontré début avril des performances jusqu’alors inconnues en matière de détection – et d’exploitation – des vulnérabilités. Mythos a ainsi découvert un bug vieux de près de 30 ans dans la pile réseau d’OpenBSD, pourtant considéré comme l’un des systèmes d’exploitation les plus sûrs qui soient. Dans un environnement de test, l’IA est même parvenue à combiner («chaîner») plusieurs vulnérabilités du noyau Linux et à prendre le contrôle total du système de manière autonome. 
 
Entre les mains de cybercriminels, un tel système pourrait ouvrir la voie à une toute nouvelle dimension d’attaques, d’une sophistication qui jusqu’ici était l’apanage d’une poignée d’experts. Même si de nombreux spécialistes de l’IA et de la cybersécurité ont accueilli l’annonce avec scepticisme, le risque demeure: l’IA pourrait augmenter le nombre d’attaques Zero-Day, et par conséquent accroitre les efforts nécessaires pour patcher les systèmes et les applications.
 
En réponse, Anthropic a lancé le projet Glasswing en collaboration avec des acteurs majeurs du secteur. L’objectif est de permettre aux équipes de cyberdéfense et aux éditeurs d’exploiter les capacités de Mythos avant que les assaillants ne découvrent des vulnérabilités. Cela pourrait marquer le début d’une nouvelle ère de la cybersécurité, dans laquelle seule l’assistance de la machine permettra de repousser les attaques informatiques.

Adapter le Red Teaming aux systèmes d’IA

De nombreux risques de sécurité liés aux systèmes d’IA ne proviennent pas de vulnérabilités isolées, mais de choix architecturaux, souligne Collin Geisser: «L’IA élargit la surface d’attaque, car les attaques peuvent aussi commencer par une injection de prompt. C’est particulièrement critique pour les agents IA, qui disposent souvent de droits étendus».

Lorsque la sécurité n’est prise en compte qu’a posteriori, il est souvent impossible de corriger de manière satisfaisante des questions essentielles comme les identités, les autorisations ou les flux de données. Dans le cas des agents autonomes, la sécurité se joue donc dès la phase de conception.

Pour évaluer la sécurité des systèmes d’IA, de nouvelles méthodes de test sont nécessaires. En effet, contrairement aux applications classiques, ce ne sont pas les failles de sécurité qui sont au centre des préoccupations, mais l’exfiltration de données et le fonctionnement des garde-fous destinés à empêcher les réponses inappropriées.

Un Penetration Test ou un Red Teaming doit donc être étendu avec des tâches supplémentaires comme les suivantes:

  • Tests d’injection de prompt
  • Simulation d’attaques par inversion de modèle: les assaillants tentent ici de déduire la configuration du modèle utilisé à partir de ses réponses, ou d’exfiltrer les données d’entraînement
  • Tests d’exfiltration de données
  • Exercices de type tabletop spécifiques à l’IA

Les agents IA autonomesmarquent un tournant dans la cybersécurité: pour la première fois, des systèmes agissent de manière autonome dans des environnements IT, prennent des décisions et accèdent à des ressources. Pour les responsables IT et sécurité, cela signifie que la sécurité ne doit pas nécessairement freiner toute innovation, mais qu’elle doit être prise en compte dès le départ. En définissant des lignes directrices claires, on crée un cadre propice à une utilisation productive de l’IA, sans perdre le contrôle.

Étapes clés pour la cybersécurité à l’ère des agents IA

Voici les principales recommandations d’action pour faire face aux cyberrisques liés à l’IA:

  • Créer de la transparence sur les agents IA déployés
  • Traiter les agents IA comme des identités privilégiées: définir des autorisations claires, limiter les droits d’accès au minimum et rendre les actions traçables (heure, système, déclencheur, etc.)
  • Intégrer les risques liés à la chaîne d’approvisionnement des skills et des modèles d’IA dans la cyberdéfense
    -Étendre les processus SOC et la détection des attaques d’IA, par exemple avec des playbooks en lien avec l’IA (injection de prompt, fuite de données, etc.)
  • Intégrer la sécurité de l’IA dans le concept d’architecture et de test des applications et des agents reposant sur l’IA
Swisscom Cybersecurity Threat Radar 2026: risques IA, chaîne d’approvisionnement, souveraineté numérique et sécurité OT – coup d’œil sur les cybertendances. 

Autres articles intéressants