Un agent IA qui installe des logiciels, analyse des e-mails et prend des décisions de manière autonome: ce gain de productivité donne des sueurs froides à la cyberdéfense. En effet, ces mêmes compétences censées soulager les collaborateurs ouvrent de nouvelles surfaces d’attaque, à l’instar de l’IA générative en général. Avec des conséquences pour la sécurité.
Mai 2026, Texte Andreas Heer 4 Min.
Cela ressemble à un rêve: OpenClaw fonctionne comme un agent IA local qui automatise pratiquement toutes les tâches: «Crée-moi un site web dédié à l’événement avec une fonction d’inscription. Utilise des frameworks CSS et JavaScript connus pour la mise en œuvre et installe tout dans le répertoire du projet.» «Parcours mes e-mails à la recherche de tâches importantes et ajoute-les à la liste des tâches.» «Crée-moi une présentation à partir des informations contenues dans mon dossier de projet. Préviens-moi sur WhatsApp quand tu auras terminé.»
Il n’est pas étonnant que l’annonce d’OpenClaw en janvier 2026 ait fait grand bruit. Ce projet open source lancé sous le nom de Clawdbot, puis Moltbot, utilise un LLM via une API et dispose de nombreuses compétences que l’agent peut mettre en œuvre de manière autonome: exécution de commandes shell locales, accès à Internet, installation de logiciels, communication via diverses messageries instantanées. Et les capacités manquantes peuvent être complétées par ce que l’on appelle des «skills».
OpenClaw est devenu viral à double titre: le projet a obtenu plus de 360 000 étoiles sur GitHub en avril, et il a aussi plongé les services de cybersécurité des entreprises dans un véritable cauchemar. Toutes les craintes en matière de sécurité concernant les agents IA se sont concrétisées pratiquement du jour au lendemain: injection de prompts, fuite de données, porte d’entrée pour les cyberattaques, installation de logiciels malveillants, exfiltration de clés API et de données d’accès via les fichiers de configuration d’OpenClaw. Et pour couronner le tout, des attaques de type «supply chain» contre des services Internet via des skills contaminés. Un exemple illustrant cette situation: «ClawHawoc» Des chercheurs en sécurité ont découvert que sur plus de 10 000 skills disponibles sur le marketplace ClawHub, près de 10% contiennent des logiciels malveillants.
Certes, OpenClaw constitue peut-être un exemple extrême de faille de sécurité. Mais ce projet met en évidence les nouvelles surfaces d’attaque qui peuvent apparaître en entreprise lorsque celles-ci font appel à des agents IA autonomes. Il n’est donc pas surprenant que le Swisscom Cybersecurity Threat Radar considère également l’IA comme une tendance à la hausse dans l’environnement de sécurité. La protection contre de telles attaques et leur détection font partie des missions de la cyberdéfense, qui doit s’adapter à des scénarios en constante évolution.
Dès lors que les services spécialisés commencent à évaluer les agents IA ou à les déployer en production de leur propre initiative, la sécurité de l’IA devient une responsabilité de la direction. En effet, les agents autonomes ne sont plus des outils classiques: ils agissent avec leurs propres autorisations, souvent en dehors de mécanismes de contrôle établis. Attendre avant d’agir, c’est prendre le risque que les questions de sécurité ne soient soulevées qu’une fois l’agent déjà opérationnel.
OpenClaw a été en grande partie développée avec et par l’IA. Les possibilités offertes par l’IA générative, comme le «vibe coding», n’ont pas échappé aux cybercriminels. L’IA ne simplifie pas seulement la rédaction d’e-mails de phishing d’un réalisme trompeur dans différentes langues – et sans fautes d’orthographe. Avec «VoidLink», des chercheurs en sécurité ont également découvert un malware Linux en circulation, probablement largement conçu à l’aide de l’IA. Il ne s’agit pas pour autant de l’émergence de nouveaux groupes criminels grâce à l’IA. Ce sont plutôt les acteurs existants qui utilisent ces outils pour «mettre à niveau» leurs compétences: VoidLink présente des caractéristiques que l’on ne trouvait jusqu’à présent que dans les logiciels malveillants de collectifs bien équipés comme les groupes APT.
Cela signifie que les attaques émanant des cybercriminels «ordinaires» deviennent elles aussi plus sophistiquées. «L’IA permet aux assaillants de développer des ‹exploits› pour des systèmes qu’ils ne connaissent même pas», explique Collin Geisser, Lead Security Architect chez Swisscom. «Cela augmente la surface d’attaque potentielle.»
Les formes de fraude deviennent elles aussi plus sophistiquées, «grâce» aux deepfakes. Les enregistrements audio avec des voix falsifiées ou des vidéos générées par IA rendent l’ingénierie sociale ou la fraude au CEO particulièrement crédibles. En Suisse, un cas a été révélé en janvier: des criminels inconnus se sont fait passer, en utilisant le voice cloning par téléphone, pour des partenaires commerciaux connus et ont réussi à convaincre l’entrepreneur concerné d’effectuer un paiement de plusieurs millions de francs.
Au-delà de la fraude, ce sont tous les processus reposant sur la reconnaissance vocale ou faciale pour l’identification qui pourraient être contournés par l’IA. La détection des deepfakes compte sans aucun doute parmi les tâches les plus exigeantes de la cyberdéfense et nécessite une combinaison de mesures techniques et de sensibilisation à la sécurité pour renforcer la vigilance des collaborateurs.
Avec l’IA, les cyberattaques ne deviennent pas seulement plus sophistiquées, elles sont aussi plus rapides. L’exploitation des failles de sécurité et la mise en œuvre d’attaques automatisées réduisent la fenêtre de détection et de réaction. Mais la Threat Detection and Response (TDR) peut pour ainsi dire battre les cybercriminels à leur propre jeu. En effet, l’IA peut également rendre de grands services dans la détection des attaques. C’est le cas par exemple pour identifier des schémas d’attaque dans de grands volumes de données log, reconstruire des chronologies d’événements ou analyser des logiciels malveillants – en quelque sorte le «vibe decoding».
Les compétences des analystes SOC évoluent également. L’IA peut aider les profils moins expérimentés à analyser des menaces complexes. Et transformer un rapport technique en une synthèse compréhensible pour les managers est une tâche plutôt simple pour l’IA. L’IA peut aussi assister les spécialistes lors des Penetration Tests ou des tests de sécurité des applications, explique Collin Geisser: «Des tâches comme le fuzzing peuvent être automatisées grâce à l’IA, ce qui permet de réduire la charge de travail et les coûts liés à ces tests».
D’une manière générale, l’IA modifie le rôle des spécialistes. Les tâches fastidieuses et minutieuses disparaissent progressivement, laissant place à des analystes qui orchestrent des processus automatisés. Il ne s’agit pas de remplacer les êtres humains, mais de les soulager. Ils peuvent ainsi se concentrer davantage sur les tâches qui requièrent une expertise humaine. C’est le cas par exemple de la classification des incidents et de la mise en œuvre des mesures appropriées pour l’Incident Response. Le principe clé de l’utilisation de l’IA dans un SOC est le «human in the loop»: l’IA automatise, l’humain contrôle et décide.
De nombreux risques de sécurité liés aux systèmes d’IA ne proviennent pas de vulnérabilités isolées, mais de choix architecturaux, souligne Collin Geisser: «L’IA élargit la surface d’attaque, car les attaques peuvent aussi commencer par une injection de prompt. C’est particulièrement critique pour les agents IA, qui disposent souvent de droits étendus».
Lorsque la sécurité n’est prise en compte qu’a posteriori, il est souvent impossible de corriger de manière satisfaisante des questions essentielles comme les identités, les autorisations ou les flux de données. Dans le cas des agents autonomes, la sécurité se joue donc dès la phase de conception.
Pour évaluer la sécurité des systèmes d’IA, de nouvelles méthodes de test sont nécessaires. En effet, contrairement aux applications classiques, ce ne sont pas les failles de sécurité qui sont au centre des préoccupations, mais l’exfiltration de données et le fonctionnement des garde-fous destinés à empêcher les réponses inappropriées.
Un Penetration Test ou un Red Teaming doit donc être étendu avec des tâches supplémentaires comme les suivantes:
Les agents IA autonomesmarquent un tournant dans la cybersécurité: pour la première fois, des systèmes agissent de manière autonome dans des environnements IT, prennent des décisions et accèdent à des ressources. Pour les responsables IT et sécurité, cela signifie que la sécurité ne doit pas nécessairement freiner toute innovation, mais qu’elle doit être prise en compte dès le départ. En définissant des lignes directrices claires, on crée un cadre propice à une utilisation productive de l’IA, sans perdre le contrôle.