«Shadow AI ist ein Risiko für die Datensicherheit und Compliance eines Unternehmens»

Mitarbeitende wollen KI-Tools nutzen, ob der Arbeitgeber diese zur Verfügung stellt oder nicht. Diese Shadow AI bringt Risiken mit sich – aber auch Chancen, wie Beni Eugster, Cloud Operation and Security Officer bei Swisscom, im Interview ausführt.

April 2025, Text Andreas Heer           5 Min.

Generative künstliche Intelligenz (GenAI) hilft im Arbeitsalltag. Und Mitarbeitende wollen Tools wie Microsoft Copilot, ChatGPT, Perplexity.ai oder Google Gemini nutzen. Stellen Arbeitgeber keine entsprechenden Hilfsmittel zur Verfügung, helfen sich die Mitarbeitenden selbst, indem sie die Tools ihrer Wahl mit privaten Konten nutzen. Microsofts Work Trend Index 2024(öffnet ein neues Fenster) ergab, dass gegen 80 Prozent derjenigen, die GenAI nutzen, ihre eigenen Tools zur Arbeit mitbringen. Diese «Shadow AI» stellt Unternehmen vor ähnliche Fragestellungen wie Shadow-IT, also die Nutzung privater, nicht freigegebener Geräte und Cloud-Dienste für die Arbeit. Im Interview erläutert Beni Eugster, wo die wichtigsten Risiken liegen – und weshalb Shadow AI auch Chancen bietet.

Beni Eugster, wie gross ist das Problem von Shadow AI in Unternehmen überhaupt?

Die Problematik variiert in hohem Masse je nach Branche, Unternehmensgrösse, IT-Struktur und der Kritikalität von Daten und Services. Da jedoch immer mehr Unternehmen KI-Technologien nutzen, steigt auch das Risiko unbeaufsichtigter und nicht explizit zugelassener KI-Nutzung. Shadow AI schafft bedeutende Risiken für Datensicherheit, Compliance und den Ruf des Unternehmens. Das Problem liegt vor allem darin, dass wie auch bei Shadow IT viele KI-Dienste kostenlos oder günstig im Internet zur Verfügung stehen. Daher steigt das Risiko, das Mitarbeitende nicht freigegebene Dienste nutzen, um effizienter zu arbeiten, was wiederum auch eine Chance für das Unternehmen ist.

Informieren Sie sich über aktuelle Trends in der Cybersecurity und über relevante Bedrohungen.

Wo liegt das Risiko von Shadow AI?

Die Hauptprobleme von Shadow AI liegen in der Datensicherheit und Compliance. Je nach Gebrauchsgrund können verschiedene Daten betroffen sein: zum Beispiel Kundendaten, Mitarbeiterinformationen, interne Kommunikation, interne Schwachstellen, Passwörter, Geschäftsberichte, Code und andere sensible Informationen, die normalerweise durch IT-Sicherheitsrichtlinien und -massnahmen geschützt sind. KI-Technologien sind mit anderen Datenbearbeitungsprozessen gleichzustellen. Das heisst, dass dieselben Regulierungen gelten, die wir beispielsweise für Personendaten haben. Die Risiken sowie der Datenfluss(öffnet ein neues Fenster) müssen daher genau analysiert werden.

Auch beobachten wir gerade, wie neue, spezifische KI-Vorschriften entstehen zur Nutzung von künstlicher Intelligenz in Verbindung mit sensiblen Daten und allgemein für den Einsatz von KI-Modellen, die mit bestimmten Daten trainiert wurden.

Worin liegt das Problem, wenn Mitarbeitende Shadow AI mit Geschäftsdaten verwenden, aus Sicht von Datensicherheit und Compliance? 

Die IT-Abteilungen haben dann oft keine Übersicht oder keine Kontrolle über die Daten, die diese KI-Tools verarbeiten. Das kann dazu führen, dass vertrauliche Daten auf unsicheren Plattformen gespeichert werden, die Daten fürs Training der Modelle genutzt werden oder unautorisierte Personen Zugang zu den Daten erhalten. Darüber hinaus können durch die Nutzung von Shadow AI gesetzliche und vertragliche Compliance-Vorschriften verletzt werden, die den sicheren Umgang und die sichere Speicherung von Daten regeln.

Wenn Unternehmen einen Security Incident im Zusammenhang mit Shadow AI feststellen: Wie können sie reagieren?

Stellen Unternehmen einen Sicherheitsvorfall im Zusammenhang mit Shadow AI fest, sollten sie sofort Massnahmen ergreifen, um den Vorfall zu untersuchen und die Auswirkungen zu minimieren – wie bei jedem Incident. Das könnte eine forensische Analyse des Vorfalls und die Durchführung einer Risikobewertung umfassen, beispielsweise zusammen mit dem SOC oder dem CSIRT(öffnet ein neues Fenster). Die Analyse könnte neue Elemente umfassen wie beispielsweise, ob die eingegebenen Daten fürs Training verwendet werden und ob sich die Daten wieder löschen lassen. Daraufhin sollten Präventivmassnahmen ergriffen werden, um ähnliche Vorfälle in der Zukunft zu vermeiden. 

Mitarbeitende nutzen Shadow AI, weil die AI-Tools, die sie nutzen möchten, offiziell nicht verfügbar sind. Wie können Unternehmen besser auf die Bedürfnisse ihrer Mitarbeitenden bei der Nutzung von GenAI reagieren?

Unternehmen können formelle Prozesse entwickeln, um neue KI-Anwendungen und Tools zu überprüfen und zu genehmigen und um Schulungen und Unterstützung für Mitarbeitende zur sicheren Nutzung von KI-Tools anzubieten. Anstatt ein absolutes Verbot auszusprechen, was sich oft als ineffektiv erweist, sollten Organisationen einen strategischen Plan für die sichere Nutzung dieser Anwendungen erstellen. Ein solcher Plan könnte beispielsweise die Bereitstellung eines firmeninternen, privaten GPT-Modells für die Mitarbeitenden beinhalten anstelle der Nutzung von öffentlichen.

Ein offener Austausch zwischen Mitarbeitenden, IT-Abteilungen und Sicherheitsteams ist erfahrungsgemäss hilfreich, um herauszufinden, welche KI-Tools nützlich und vorteilhaft für das Unternehmen sind, um dann gleichzeitig Schutzmassnahmen für die Risiken zu definieren. Versteht ein Unternehmen die Bedürfnisse der Mitarbeitenden und des Business, kann es sinnvolle KI-Tools in einem geregelten Rahmen anbieten.

 «Mitarbeitende wollen KI-Tools nutzen, ob der Arbeitgeber diese zur Verfügung stellt oder nicht. Diese Shadow AI bringt Risiken mit sich – aber auch Chancen.»

Beni Eugster, Cloud Operation and Security Officer bei Swisscom

Mit welchen – technischen und organisatorischen – Massnahmen können Unternehmen die Nutzung von Shadow AI einschränken?

Technische Massnahmen können die Implementierung von Lösungen sein, um unautorisierte KI-Tools zu identifizieren oder zu blockieren. Da gibt es zum Beispiel Lösungen wie Secure Browser und Netzwerk-Proxys sowie Lösungen mit SASE- oder CASB-Eigenschaften. Solche Tools haben sich traditionell mit Themen wie Data Loss Prevention (DLP) beschäftigt und könnten somit helfen, eine sichere KI-Nutzung zu gewährleisten. Dazu kommt eine neue Generation von Tools, die sich auf Shadow AI fokussieren und bei der sicheren Nutzung dieser Tools unterstützen.

Organisatorische Massnahmen können Richtlinien und Verfahren umfassen, die die Zustimmung der IT-Abteilung zur Nutzung neuer KI-Tools erforderlich machen und Schulungen zu den Risiken bei der Nutzung von Shadow AI anbieten.

Wie kann die Cybersecurity mit der schnellen Entwicklung im Bereich AI überhaupt mithalten?

Unternehmen sollten möglichst schnell in neue Sicherheitstechnologien investieren, ständige Sicherheitsschulungen durchführen und starke Richtlinien und Verfahren für den sicheren Einsatz von KI etablieren. Zusätzlich können sie Cybersecurity-Fachleute einstellen oder ausbilden, die sich auf KI-bezogene Sicherheitsrisiken spezialisieren.

Ich denke da kommt noch einiges auf uns zu. Und weil sich die Technologien so schnell entwickeln, ist es wichtig, früh einzusteigen und sich damit vertraut zu machen, beispielsweise im Rahmen kleiner Tests. Auf dieser Basis kann ein Unternehmen bessere Entscheidungen für einen firmenweiten Einsatz treffen.

Beni Eugster

Beni Eugster ist Cloud Operation and Security Officer im Swisscom Outpost im Silicon Valley. Er beschäftigt sich mit der zunehmend kritischen Thematik von KI-Sicherheit (AI Security) und testet neue Lösungen wie automatische Pentesting-Tools und Schutzmechanismen (Guardrails) für KI-Anwendungen.

Weitere interessante Artikel