Künstliche Intelligenz verändert die Spielregeln der Cybersecurity – und macht aus bekannten Angriffsmustern hochskalierbare Betrugsszenarien. Für CISOs geht es nicht mehr nur um Abwehr, sondern um eine strategische Antwort: Wie lassen sich KI-Risiken beherrschen, ohne Innovation auszubremsen?
Mai 2026, Text Andreas Heer 4 Min.
Es ist Freitagabend, kurz nach 17 Uhr. Der stellvertretende CFO erhält einen Anruf vom CEO. Die Stimme klingt angespannt, aber kontrolliert. Ein strategisch wichtiger Deal stehe kurz vor dem Abschluss, die Gegenpartei verlange eine kurzfristige Anzahlung. Absolute Vertraulichkeit sei entscheidend. Die Details würden per E-Mail folgen.
Das Mail trifft wenige Minuten später ein. Fehlerfrei, in vertrautem Tonfall, mit korrekten internen Referenzen. Alles wirkt konsistent. Der stellvertretende CFO gibt die Zahlung frei. Erst am Montagmorgen stellt sich heraus: Der CEO war zu diesem Zeitpunkt gar nicht in einer Sitzung. Die Stimme war synthetisch erzeugt worden, das Mail mit KI verfasst. Die Hintergrundinformationen stammten aus öffentlich zugänglichen Quellen und wenigen gezielten Social-Engineering-Vorarbeiten.
Was hier geschah, war kein hochkomplexer Cyberangriff. Es war ein standardisiertes, KI-gestütztes Betrugsszenario, das mit geringen technischen Hürden umgesetzt wurde.
Dieses Beispiel eines CEO Fraud steht exemplarisch für eine grundlegende Veränderung der Bedrohungslandschaft. Künstliche Intelligenz ermöglicht es Angreifern, Social Engineering zu skalieren, Inhalte zu personalisieren und Angriffe in hoher Frequenz zu variieren. Qualität und Geschwindigkeit steigen gleichzeitig. KI in der Cybersecurity ist ein Trend, der rasch an Bedeutung gewinnt. Das zeigt auch die jüngste Ausgabe des Swisscom Cybersecurity Threat Radar.
Für CISOs verändert sich die Ausgangslage. Denn Cyberkriminelle können mit KI nicht nur überzeugende Phishing-Mails entwerfen. «Sie automatisieren auch das Aufspüren von Schwachstellen, die Reconnaissance, und können raffiniertere Malware entwickeln», sagt dazu Collin Geisser, Lead Security Architect bei Swisscom. Das zeigt «VoidLink», eine ausgeklügelte Linux-Malware, die mutmasslich mit KI erstellt wurde und über Funktionen verfügt, wie sie normalerweise nur ressourcenstarke APT-Gruppierungen entwickeln können. Hinzu kommen Audio- und Video-Deepfakes, die sich immer schwieriger erkennen lassen. Die Eintrittsbarriere sinkt also, während die operative Schlagkraft steigt.
Für das SOC hat dieser Wandel Konsequenzen: Manuelle Triage-Prozesse stossen an ihre Zeitgrenzen. Wenn Angriffe maschinell orchestriert werden, muss auch die Verteidigung maschinell unterstützt sein, beispielsweise durch KI-Unterstützung in der Alert-Triage oder mit automatisierten Playbooks. Denn Zeit wird zum strategischen Faktor für CISOs. Wer in Stunden reagiert, verliert vielleicht gegen Angreifer, die in Minuten operieren.
Gleichzeitig nutzen Unternehmen KI produktiv – mit Chatbots, Automatisierungslösungen oder Agenten. Damit entsteht eine doppelte Herausforderung: KI verstärkt sowohl die Bedrohung aufseiten der Angreifer als auch die Angriffsfläche von Unternehmen. Für CISOs stellt sich daher die Frage, wie sich KI-Risiken strategisch beherrschen lassen, ohne die Innovation des Unternehmens zu behindern.
Parallel zur verschärften externen Bedrohungslage bilden sich im Unternehmen neue interne Angriffsflächen. Mitarbeitende nutzen LLM-Dienste (Large Language Models), Fachbereiche experimentieren mit autonomen KI-Agenten, Chatbots erhalten Zugriff auf interne Wissensdatenbanken. Innovation geschieht – oft schneller, als die Governance mitziehen kann. Insbesondere, wenn KI-Funktionen immer häufiger mit den genutzten SaaS-Angeboten mitgeliefert werden.
Die Risiken entstehen vor allem durch eine unkontrollierte Nutzung. Typische Risikofelder sind dabei:
Mit agentenbasierten Systemen entsteht eine neue Risikoklasse. Diese Systeme generieren nicht nur Inhalte, sondern führen selbständig Aktionen aus im Web, in Applikationen und im lokalen Dateisystem.
Das führt zu neuen Bedrohungsszenarien. Wie diese aussehen können, haben kürzlich Sicherheitsforscher gezeigt. Sie haben mit «Morris II» einen KI-Wurm entwickelt, der Daten exfiltrieren und sich über KI-Agenten selbst weiterverbreiten kann.
Diese Risiken lauern beim Einsatz von KI-Agenten:
Ein reines Verbot solcher Dienste führt erfahrungsgemäss zu Schatten-IT oder hier Shadow AI. Erfolgreicher ist ein «Golden Path»-Ansatz: Unternehmen stellen sichere, unternehmenskonforme KI-Umgebungen bereit und definieren dafür Nutzungsrichtlinien. «In der Praxis bedeutet dies, dass flankierende Massnahmen bereits umgesetzt sind, etwa ein Proxy-Hinweis beim Zugriff auf KI-Dienste oder das Blockieren von KI-Browsern. Generell sind aber KI-Tools nicht blockiert», sagt dazu Geisser.
Entscheidend ist dabei eine differenzierte Policy, die die unterschiedlichen Risikograde berücksichtigt, beispielsweise:
In diesem Zusammenhang stellen sich Fragen, die jedes Unternehmen für sich beantworten muss, betont Geisser: «Es ist ein schmaler Grat zwischen dem Blockieren von Innovationen und der Stärkung der Sicherheit. Dieses Thema muss die Security gezielt angehen.»
Dazu gehört die Beantwortung von Fragen wie etwa:
Neben technischen und organisatorischen Risiken gewinnt auch die regulatorische Dimension von KI an Bedeutung. Datenschutzgesetze, branchenspezifische Vorgaben und neue KI-spezifische Regulierungen verlangen Transparenz darüber, wo und wie KI im Unternehmen eingesetzt wird, welche Daten verarbeitet werden und wer dafür verantwortlich ist.
Für CISOs bedeutet das: KI-Risiken lassen sich nicht isoliert als IT-Thema behandeln, sondern müssen in bestehende Governance-, Risk- und Compliance-Strukturen integriert werden. Entscheidend ist dabei weniger, jedes regulatorische Detail vorwegzunehmen, sondern klare Zuständigkeiten, Risikoklassifizierungen und Dokumentationen zu etablieren. So wird die Regulierung vom reaktiven Pflichtprogramm zum strategischen Instrument, das Vertrauen schafft – intern wie nach aussen –, und den kontrollierten Einsatz von KI überhaupt erst ermöglicht.
Die Governance muss bei KI-Agenten weiter gehen als bei klassischen Anwendungen. Jede KI-Instanz benötigt eine eigene Identität, über die sie nicht nur identifiziert, sondern auch geregelt werden kann. So sollten etwa Least-Privilege-Prinzipien auch für KI-Agenten gelten. Identitäten sind die Grundlage dafür, Aktionen von Agenten nachvollziehbar und auditierbar zu gestalten. Das bedingt auch, den Überblick in Form eines Inventars über die eingesetzten Agenten zu behalten.
Ein möglicher Ansatz für die Definition einer AI Governance ist ein Gremium aus CISO, Datenschutzverantwortlichen und Business-Vertretern. Ziel ist eine gemeinsame Risikobewertung und klare Verantwortungszuweisung.
Der Nutzen und die Annehmlichkeiten von GenAI führt dazu, dass Mitarbeitende solche Dienste nutzen, ob sie nun offiziell freigegeben sind oder nicht. Der Umgang mit solchen Tools ist nicht nur eine Frage der Governance, sondern im Arbeitsalltag der Mitarbeitenden ein Thema für die Security Awareness. Dabei geht es weniger um Awareness im engeren Sinn als um AI Literacy, also die Kompetenzen im Umgang mit KI. Mitarbeitende müssen die Stärken und Grenzen von Modellen verstehen, inklusive Halluzinationen und Bias. Dazu gehört auch, dass Mitarbeitende die Governance-Regeln kennen und nachvollziehen können.
Und genauso müssen sich Mitarbeitenden den Bedrohungen bewusst werden, die durch KI-unterstützte Cyberangriffe entstehen. Klassische Phishing-Simulationen greifen hier zu kurz. Awareness-Programme sollten daher erweitert werden um:
Geisser hat zudem gute Erfahrungen gemacht damit, im Rahmen der Awareness-Massnahmen gezielte Prompt-Injection-Sessions durchzuführen: «Zu sehen, wie einfach es ist, selbst die gestandenen Player an der Nase herumzuführen, öffnet die Augen für die Risiken.»
CISOs stehen vor einem Rollenwandel: Wer KI primär verbietet, bremst Innovation und fördert Schatten-KI. Wer sie unkontrolliert zulässt, riskiert Daten- und Kontrollverlust. Die strategische Aufgabe des CISO besteht darin, Leitplanken zu definieren, Innovation zu ermöglichen und Resilienz aufzubauen gegen KI-gestützte Cyberangriffe. Es geht also darum, den Golden Path zu finden, den Umgang mit den privilegierten KI-Identitäten zu regeln und die Kompetenzen der Mitarbeitenden zu stärken.
Gleichzeitig müssen CISOs das Potenzial von GenAI in der eigenen Cyberdefence ausloten. Damit der nächste Versuch eines CEO-Fraud frühzeitig erkannt und geblockt werden kann.