Vom Gatekeeper zum Enabler: Wie CISOs KI-Risiken strategisch steuern

Künstliche Intelligenz verändert die Spielregeln der Cybersecurity – und macht aus bekannten Angriffsmustern hochskalierbare Betrugsszenarien. Für CISOs geht es nicht mehr nur um Abwehr, sondern um eine strategische Antwort: Wie lassen sich KI-Risiken beherrschen, ohne Innovation auszubremsen?

Mai 2026, Text Andreas Heer            4 Min.

Lesen Sie in diesem Artikel:

  • Wie KI Angriffe beschleunigt und professionalisiert (zum Beispiel CEO Fraud, Deepfakes, automatisierte Reconnaissance) und weshalb Reaktionszeit zum strategischen Faktor wird.
  • Wie produktive KI die Angriffsfläche im Unternehmen erweitert: Chatbots, Shadow AI und besonders autonome KI-Agenten bringen neue Risiken für die Cyberdefence.
  • Weshalb der wirksamste Ansatz weder ein Verbot noch Wildwuchs ist, sondern ein «Golden Path» mit klarer AI Governance, kombiniert mit AI Literacy in der Security Awareness.

Es ist Freitagabend, kurz nach 17 Uhr. Der stellvertretende CFO erhält einen Anruf vom CEO. Die Stimme klingt angespannt, aber kontrolliert. Ein strategisch wichtiger Deal stehe kurz vor dem Abschluss, die Gegenpartei verlange eine kurzfristige Anzahlung. Absolute Vertraulichkeit sei entscheidend. Die Details würden per E-Mail folgen.

Das Mail trifft wenige Minuten später ein. Fehlerfrei, in vertrautem Tonfall, mit korrekten internen Referenzen. Alles wirkt konsistent. Der stellvertretende CFO gibt die Zahlung frei. Erst am Montagmorgen stellt sich heraus: Der CEO war zu diesem Zeitpunkt gar nicht in einer Sitzung. Die Stimme war synthetisch erzeugt worden, das Mail mit KI verfasst. Die Hintergrundinformationen stammten aus öffentlich zugänglichen Quellen und wenigen gezielten Social-Engineering-Vorarbeiten.

Was hier geschah, war kein hochkomplexer Cyberangriff. Es war ein standardisiertes, KI-gestütztes Betrugsszenario, das mit geringen technischen Hürden umgesetzt wurde.

Angriffe werden schneller – und besser

Dieses Beispiel eines CEO Fraud steht exemplarisch für eine grundlegende Veränderung der Bedrohungslandschaft. Künstliche Intelligenz ermöglicht es Angreifern, Social Engineering zu skalieren, Inhalte zu personalisieren und Angriffe in hoher Frequenz zu variieren. Qualität und Geschwindigkeit steigen gleichzeitig. KI in der Cybersecurity ist ein Trend, der rasch an Bedeutung gewinnt. Das zeigt auch die jüngste Ausgabe des Swisscom Cybersecurity Threat Radar.

Für CISOs verändert sich die Ausgangslage. Denn Cyberkriminelle können mit KI nicht nur überzeugende Phishing-Mails entwerfen. «Sie automatisieren auch das Aufspüren von Schwachstellen, die Reconnaissance, und können raffiniertere Malware entwickeln», sagt dazu Collin Geisser, Lead Security Architect bei Swisscom. Das zeigt «VoidLink», eine ausgeklügelte Linux-Malware, die mutmasslich mit KI erstellt wurde und über Funktionen verfügt, wie sie normalerweise nur ressourcenstarke APT-Gruppierungen entwickeln können. Hinzu kommen Audio- und Video-Deepfakes, die sich immer schwieriger erkennen lassen. Die Eintrittsbarriere sinkt also, während die operative Schlagkraft steigt.

Für das SOC hat dieser Wandel Konsequenzen: Manuelle Triage-Prozesse stossen an ihre Zeitgrenzen. Wenn Angriffe maschinell orchestriert werden, muss auch die Verteidigung maschinell unterstützt sein, beispielsweise durch KI-Unterstützung in der Alert-Triage oder mit automatisierten Playbooks. Denn Zeit wird zum strategischen Faktor für CISOs. Wer in Stunden reagiert, verliert vielleicht gegen Angreifer, die in Minuten operieren.

Die neue Angriffsfläche: Chatbots, Shadow AI und KI-Agenten

Gleichzeitig nutzen Unternehmen KI produktiv – mit Chatbots, Automatisierungslösungen oder Agenten. Damit entsteht eine doppelte Herausforderung: KI verstärkt sowohl die Bedrohung aufseiten der Angreifer als auch die Angriffsfläche von Unternehmen. Für CISOs stellt sich daher die Frage, wie sich KI-Risiken strategisch beherrschen lassen, ohne die Innovation des Unternehmens zu behindern.

Parallel zur verschärften externen Bedrohungslage bilden sich im Unternehmen neue interne Angriffsflächen. Mitarbeitende nutzen LLM-Dienste (Large Language Models), Fachbereiche experimentieren mit autonomen KI-Agenten, Chatbots erhalten Zugriff auf interne Wissensdatenbanken. Innovation geschieht – oft schneller, als die Governance mitziehen kann. Insbesondere, wenn KI-Funktionen immer häufiger mit den genutzten SaaS-Angeboten mitgeliefert werden.

Die Risiken entstehen vor allem durch eine unkontrollierte Nutzung. Typische Risikofelder sind dabei:

  • Der Upload sensibler geschäftlicher Daten in öffentliche Modelle 
  • Nicht geregelte Verwendung geschäftlicher Daten durch GenAI-Anbieter, beispielsweise fürs Training der LLM 
  • Potenzielle Verletzung von Datenschutzgesetzen oder branchenspezifischen Regulatorien 
  • Unvollständige Audit-Trails, wenn die Aktivitäten bei GenAI-Dienstleistungen nicht protokolliert werden können

Agentic AI – wenn Software selbst handelt

Mit agentenbasierten Systemen entsteht eine neue Risikoklasse. Diese Systeme generieren nicht nur Inhalte, sondern führen selbständig Aktionen aus im Web, in Applikationen und im lokalen Dateisystem.
Das führt zu neuen Bedrohungsszenarien. Wie diese aussehen können, haben kürzlich Sicherheitsforscher gezeigt. Sie haben mit «Morris II» einen KI-Wurm entwickelt, der Daten exfiltrieren und sich über KI-Agenten selbst weiterverbreiten kann. 

Diese Risiken lauern beim Einsatz von KI-Agenten:

  • Prompt Injection durch böswillige Mails und Webseiten.  
  • Installation von Malware durch böswillige Erweiterungen («Skills») für Agenten 
  • Datenexfiltration, indem beispielsweise Zugangsdaten auf böswilligen Webseiten eingegeben werden

Die goldene Mitte im Umgang mit KI finden

Ein reines Verbot solcher Dienste führt erfahrungsgemäss zu Schatten-IT oder hier Shadow AI. Erfolgreicher ist ein «Golden Path»-Ansatz: Unternehmen stellen sichere, unternehmenskonforme KI-Umgebungen bereit und definieren dafür Nutzungsrichtlinien. «In der Praxis bedeutet dies, dass flankierende Massnahmen bereits umgesetzt sind, etwa ein Proxy-Hinweis beim Zugriff auf KI-Dienste oder das Blockieren von KI-Browsern. Generell sind aber KI-Tools nicht blockiert», sagt dazu Geisser.

Entscheidend ist dabei eine differenzierte Policy, die die unterschiedlichen Risikograde berücksichtigt, beispielsweise:

  • Interne RAG-Systeme mit kontrollierter Datenbasis als Wissens-Chatbots 
  • Nutzung öffentlicher GenAI-Dienste mit klaren Einschränkungen 
  • Strenge Governance-Vorgaben für autonome KI-Agenten

In diesem Zusammenhang stellen sich Fragen, die jedes Unternehmen für sich beantworten muss, betont Geisser: «Es ist ein schmaler Grat zwischen dem Blockieren von Innovationen und der Stärkung der Sicherheit. Dieses Thema muss die Security gezielt angehen.»

Dazu gehört die Beantwortung von Fragen wie etwa:

  • Welche KI-Nutzung akzeptieren wir bewusst als Restrisiko? 
  • Wo ist eine technische Kontrolle zwingend, wo reicht Governance aus? 
  • Welche KI-Risiken sind Business-Risiken, nicht Security-Risiken?

Neben technischen und organisatorischen Risiken gewinnt auch die regulatorische Dimension von KI an Bedeutung. Datenschutzgesetze, branchenspezifische Vorgaben und neue KI-spezifische Regulierungen verlangen Transparenz darüber, wo und wie KI im Unternehmen eingesetzt wird, welche Daten verarbeitet werden und wer dafür verantwortlich ist. 

Für CISOs bedeutet das: KI-Risiken lassen sich nicht isoliert als IT-Thema behandeln, sondern müssen in bestehende Governance-, Risk- und Compliance-Strukturen integriert werden. Entscheidend ist dabei weniger, jedes regulatorische Detail vorwegzunehmen, sondern klare Zuständigkeiten, Risikoklassifizierungen und Dokumentationen zu etablieren. So wird die Regulierung vom reaktiven Pflichtprogramm zum strategischen Instrument, das Vertrauen schafft – intern wie nach aussen –, und den kontrollierten Einsatz von KI überhaupt erst ermöglicht.

Governance im Agenten-Zeitalter

Die Governance muss bei KI-Agenten weiter gehen als bei klassischen Anwendungen. Jede KI-Instanz benötigt eine eigene Identität, über die sie nicht nur identifiziert, sondern auch geregelt werden kann. So sollten etwa Least-Privilege-Prinzipien auch für KI-Agenten gelten. Identitäten sind die Grundlage dafür, Aktionen von Agenten nachvollziehbar und auditierbar zu gestalten. Das bedingt auch, den Überblick in Form eines Inventars über die eingesetzten Agenten zu behalten.

Ein möglicher Ansatz für die Definition einer AI Governance ist ein Gremium aus CISO, Datenschutzverantwortlichen und Business-Vertretern. Ziel ist eine gemeinsame Risikobewertung und klare Verantwortungszuweisung.

Security Awareness erhält Zuwachs

Der Nutzen und die Annehmlichkeiten von GenAI führt dazu, dass Mitarbeitende solche Dienste nutzen, ob sie nun offiziell freigegeben sind oder nicht. Der Umgang mit solchen Tools ist nicht nur eine Frage der Governance, sondern im Arbeitsalltag der Mitarbeitenden ein Thema für die Security Awareness. Dabei geht es weniger um Awareness im engeren Sinn als um AI Literacy, also die Kompetenzen im Umgang mit KI. Mitarbeitende müssen die Stärken und Grenzen von Modellen verstehen, inklusive Halluzinationen und Bias. Dazu gehört auch, dass Mitarbeitende die Governance-Regeln kennen und nachvollziehen können.

Und genauso müssen sich Mitarbeitenden den Bedrohungen bewusst werden, die durch KI-unterstützte Cyberangriffe entstehen. Klassische Phishing-Simulationen greifen hier zu kurz. Awareness-Programme sollten daher erweitert werden um:

  • Umgang mit KI-generierten Inhalten: Nicht alles, was plausibel tönt, ist es auch 
  • Sensibilisierung für Deepfakes: Erkennen von Hinweisen, Kontrollfragen überlegen 
  • Verifikationsmechanismen bei ungewöhnlichen Anfragen: Prüfprozess für suspekte E-Mails und Messenger-Anfragen, Rückfragen über anderen Kanal  
  • Förderung einer «Human-in-the-Loop»-Kultur: Prüfung der vorgeschlagenen Schritte eines KI-Agenten, Kontrolle der Ergebnisse

Geisser hat zudem gute Erfahrungen gemacht damit, im Rahmen der Awareness-Massnahmen gezielte Prompt-Injection-Sessions durchzuführen: «Zu sehen, wie einfach es ist, selbst die gestandenen Player an der Nase herumzuführen, öffnet die Augen für die Risiken.»

Als CISO vom Blockierer zum Enabler

CISOs stehen vor einem Rollenwandel: Wer KI primär verbietet, bremst Innovation und fördert Schatten-KI. Wer sie unkontrolliert zulässt, riskiert Daten- und Kontrollverlust. Die strategische Aufgabe des CISO besteht darin, Leitplanken zu definieren, Innovation zu ermöglichen und Resilienz aufzubauen gegen KI-gestützte Cyberangriffe. Es geht also darum, den Golden Path zu finden, den Umgang mit den privilegierten KI-Identitäten zu regeln und die Kompetenzen der Mitarbeitenden zu stärken.

Gleichzeitig müssen CISOs das Potenzial von GenAI in der eigenen Cyberdefence ausloten. Damit der nächste Versuch eines CEO-Fraud frühzeitig erkannt und geblockt werden kann.

Swisscom Cybersecurity Threat Radar 2026: KI-Risiken, Supply-Chain-Angriffe, digitale Souveränität und OT-Security – die wichtigsten Cybertrends im Überblick. 

Weitere interessante Artikel