Eine durchdachte AI Governance ist entscheidend, um KI wirkungsvoll im Unternehmen einzusetzen. Interview (Bild: Ein Mann schiebt ein Velo über eine Brücke)
11 min

Der Weg zur KI-getriebenen Organisation

Künstliche Intelligenz (KI), speziell GenAI, und Datenanalyse sind entscheidende Treiber der digitalen Transformation. Christof Zogg, Head of Business Transformation, und Anne-Sophie Morand, Data Governance Counsel, beide bei Swisscom, erläutern Erfolgsfaktoren für den Wandel zur KI-getriebenen Organisation.

Whitepaper KI-Regulierung

Dieses Whitepaper gibt einen Überblick über die aktuellen KI-Regulierungen in der Schweiz und der EU – und worauf es bei einer AI Governance ankommt.

Wie weit sind Schweizer Unternehmen mit KI und Datenanalyse?

Christof Zogg: Es gibt kein einheitliches Bild, aber in der Tendenz lässt sich etwa Folgendes sagen, wie wir unter anderem in einer gemeinsamen Marktstudie mit der HWZ (PDF) herausgefunden haben: Schweizer Unternehmen sind etwa gleich weit bei der Einführung von generativer KI (38%) wie bei der systematischen Nutzung der Datenanalyse (35%). Grössere Unternehmen sind im Durchschnitt weiter als KMUs. Und gewisse Branchen wie Banken, Versicherungen, Industrie und Handel sind weiter als andere. Der wichtigste Treiber ist und bleibt aber: Innovative Unternehmen, egal welcher Grösse und Branche, setzen konsequenter und schneller auf Data & AI und können deshalb stärker davon für ihre Wettbewerbsfähigkeit profitieren.

Wie manifestiert sich aktuell die Wettbewerbsfähigkeit durch Data & AI?

Christof Zogg: Schon bisher konnten Unternehmen von professioneller Datenanalyse profitieren, indem sie ihr Business besser im Griff hatten, wie zum Beispiel durch umfassende Management-Dashboards, und damit einen geschäftskritischen Wissensvorsprung erzielen konnten. Dieser Nutzen kann mit den neusten KI-Methoden unter anderem im Bereich der Vorhersage (etwa Predictive Maintenance im Infrastrukturunterhalt) oder der Mustererkennung (etwa Unsupervised Learning in der Kundensegmentierung) gesteigert werden. Diese Anwendungen setzten allerdings einen hohen Reifegrad der unternehmenseigenen Datenplattformen voraus. Von den generativen Sprach- und multimodalen Modellen können nun aber alle Unternehmen profitieren, denn die schwere Last der Datenbereitstellung wurde zu einem grossen Teil von den Modellbetreibern wie OpenAI oder Google übernommen.

Inwiefern hat die Automatisierung von Prozessen mit Unterstützung von GenAI transformatorisches Potenzial? Welche Rolle spielen dabei KI-Agenten?

Christof Zogg: Digitalisierung und Automatisierung führen idealerweise immer zu Effizienz- oder Qualitätsverbesserungen – unabhängig davon, welche Technologie dafür genutzt wurde. Denken wir nur schon an alle Beispiele aus dem Bereich des Self-Services wie der digitale Billettkauf im ÖV, das Bestellen von Dokumenten bei der öffentlichen Verwaltung (eGovernment) oder das eigenhändige Scannen von Waren im Detailhandel.

Die generative künstliche Intelligenz (GenAI) bringt neue, mächtige Fähigkeiten ein, mit denen Prozesse automatisiert werden können, die bisher Menschen vorenthalten waren. Dazu gehören redaktionelle Fähigkeiten (Verfassen von Antwortmails im Kundendienst), Textbearbeitung und -analyse (Zusammenfassung und Strukturierung von ärztlichen Eintrittsgesprächen) oder Bildverständnis (Kategorisierung von Steuerbelegen).

Christof Zogg, Head of Business Transformation bei Swisscom

«Generative künstliche Intelligenz bringt neue, mächtige Fähigkeiten ein, mit denen Prozesse automatisiert werden können, die bisher Menschen vorenthalten waren.»

Christof Zogg, Head of Business Transformation bei Swisscom

Agenten erweitern generative KI um aktive Entscheidungs- und Handlungskompetenzen. Zusätzlich zur Inhaltsprozessierung kann sie so autonom auf Umgebungen (beispielsweise Unternehmenssysteme) zugreifen und Aktionen ausführen. Also etwa eine Kundenanfrage per Mail analysieren und automatisiert einen Fall im Customer Service Management eröffnen oder – falls unvollständig und unklar – automatisch dem Kunden ein Klärungs-Mail versenden.

Eine starke Datenkultur ist für die Implementierung von KI-Technologien unentbehrlich. Wie lässt sich diese in Unternehmen fördern?

Christof Zogg: Die Förderung einer Datenkultur fängt damit an, dass ein Unternehmen die Relevanz und den Wert der eigenen Daten erkennt. Zweitens sollte es verstehen, dass die Daten nicht in den organisatorischen Silos gehortet werden dürfen, sondern – natürlich mit dem entsprechenden Rollen- und Zugriffssystem versehen – via Datenkatalog unternehmensweit verfügbar gemacht werden sollten. Und dafür braucht es Management-Support von möglichst weit oben.

Schliesslich wird das erfahrungsgemäss nur funktionieren, wenn das Unternehmen erkennt, dass dafür eine zentrale analytische Plattform für strukturierte und unstrukturierte Daten notwendig ist. Die Vorstellung, dass die Kernprozess-Applikation (ERP) dieser Data Hub sein könnte, reicht heute in der Praxis nicht mehr aus. Zu vielfältig und verteilt sind die unternehmensrelevanten Datenquellen (von E-Commerce über Social Media bis hin zu IoT-Sensordaten).

Welchen Stellenwert hat die Data Governance in Organisationen?

Anne-Sophie Morand: Data Governance ist ein zentraler Bestandteil moderner Organisationen und entscheidend für die erfolgreiche Umsetzung der digitalen Transformation. Sie unterstützt Unternehmen wie Swisscom dabei, eine verantwortungsvolle und rechtskonforme Datenkultur zu etablieren, die sowohl strategische als auch operative Entscheidungen prägt. Organisationen, die bislang keinen Fokus darauf gelegt haben, riskieren, wertvolle Wettbewerbsvorteile zu verlieren und sollten Massnahmen zur Implementierung ergreifen. Die kontinuierliche Anpassung und Überwachung der Data Governance ist dabei essenziell, um auf neue rechtliche und technologische Entwicklungen reagieren zu können. Letztlich trägt eine starke Data Governance zur Steigerung des Kundennutzens und des Shareholder Value bei.

Warum braucht es neben der Data Governance auch eine AI Governance?

Anne-Sophie Morand: AI Governance ist eine eigenständige Disziplin, die neben Data Governance erforderlich ist, da sie sich mit den spezifischen Herausforderungen künstlicher Intelligenz auseinandersetzt. Während Data Governance primär den Umgang mit statischen Daten regelt, erfordert die sehr dynamische Natur von KI-Technologie eine spezialisierte Steuerung. In Zeiten komplexer Gesetze wie z. B. der KI-Verordnung der EU kann eine AI Governance Unternehmen helfen, rechtliche Anforderungen effizient zu erfüllen und Vertrauen bei Kunden, Partnern und Mitarbeitenden aufzubauen.

Es ist somit wichtig, die AI Governance intern nicht als Hürde, sondern als Instrument zu begreifen, das den vollen Nutzen von KI-Technologien ermöglicht, während Wahrung von Sicherheitsstandards und die Einhaltung regulatorischer Anforderungen sichergestellt werden.

Was sind die Kernprinzipien einer robusten AI Governance?

Anne-Sophie Morand: Bei der Implementierung einer AI Governance kann es sinnvoll sein, Prinzipien zu definieren, die den Umgang mit KI leiten. Da es keinen universellen Ansatz gibt, muss jedes Unternehmen eigene, für sich relevante Prinzipien festlegen und mit Inhalt füllen. Swisscom verfolgt bei ihrer AI Governance einen «risk-based approach», ähnlich wie dies bei der KI-Verordnung der EU der Fall ist. Für die Risikokategorie «High-Risk AI Systems» findet eine umfassende Prüfung statt, bei welcher die Einhaltung der folgenden sechs Prinzipien geprüft wird: Verantwortlichkeit, Compliance, Transparenz, Qualität und Präzision, Sicherheit und Fairness.

«Es ist wichtig, AI Governance intern nicht als Hürde, sondern als Instrument zu begreifen, das den vollen Nutzen von KI-Technologien ermöglicht.»

Anne-Sophie Morand, Data Governance Counsel bei Swisscom

Die Auswahl dieser Prinzipien erfolgte mit Blick auf die Werte von Swisscom und die für das Unternehmen relevanten Einsatz- und Entwicklungsmöglichkeiten von KI. Sie sind damit auf den Unternehmenskontext abgestimmt. Zum Beispiel setzt Swisscom seit 2019 auf ein Datenethik-Board, das nun auch bei der Überprüfung des Fairness-Prinzips eingebunden wird. Das Board prüft das Prinzip Fairness bei «High-Risk AI Systems» anhand von sechs spezifischen Unterprinzipien, unter anderem «Achtung der Persönlichkeit» und «Keine Diskriminierung».

Inwiefern ist die KI-Verordnung der EU für ein Unternehmen mit Sitz in der Schweiz, das KI-Technologie entwickelt oder einsetzt, überhaupt relevant?

Anne-Sophie Morand: Obwohl die Schweiz kein Mitglied der EU ist, kann die KI-Verordnung aufgrund ihrer sogenannten extraterritorialen Wirkung dennoch für in der Schweiz ansässige Unternehmen direkt anwendbar sein, auch wenn sie weder ihren Sitz noch eine Niederlassung in der EU haben. Dies ist der Fall, wenn das Unternehmen in der Schweiz als Provider eines KI-Systems fungiert, das in der EU in Verkehr gebracht oder in Betrieb genommen wird, oder wenn es ein GPAI Model (General Purpose AI Model) in Verkehr bringt. Anwendbar kann die KI-Verordnung auch dann sein, wenn das Unternehmen in der Schweiz Provider oder Betreiber eines KI-Systems ist, dessen Ausgabe (zum Beispiel Prognose, Empfehlung oder Entscheid) in der EU verwendet wird. Diese Regelung will verhindern, dass EU-Unternehmen hochriskante Systeme an Anbieter in Drittländern auslagern, die dann Auswirkungen auf Menschen in der EU haben. Schliesslich ist die Verordnung auch für Produkthersteller relevant, die ein KI-System zusammen mit ihrem Produkt und unter ihrem eigenen Namen in der EU in Verkehr bringen oder in Betrieb nehmen. Die Schweiz hat eine offene Volkswirtschaft. Wenn wir KI-Technologie in die EU exportieren, ist die KI-Verordnung somit sehr wohl relevant.

Welche Massnahmen können Unternehmen ergreifen, um das Vertrauen ihrer Kunden in den Einsatz von KI-Systemen zu stärken und zu fördern? 

Anne-Sophie Morand: Der Einsatz von KI-Systemen erfordert Vertrauen, insbesondere wenn diese für Themen eingesetzt werden, die komplex sind, weitreichende Auswirkungen haben und für Aussenstehende nicht sicht- und nachvollziehbar sind. Um beim Einsatz von KI-Systemen Vertrauen aufzubauen, ist Transparenz ein Schlüsselprinzip. Transparenz in diesem Zusammenhang bedeutet, dass es erstens für Menschen erkennbar sein soll, dass sie nicht mit einem Menschen interagieren, sondern mit einer Maschine, oder dass ein KI-System einen Inhalt generiert hat (Erkennbarkeit). Und zweitens, dass Menschen angemessen verstehen können, wie ein KI-System zu einer bestimmten Vorhersage, Empfehlung oder Entscheidung gekommen ist oder wie das KI-System einen bestimmten Inhalt erstellt hat (Nachvollziehbarkeit).

Transparenz spielt auch in der KI-Verordnung der EU eine wichtige Rolle. Zum Beispiel wird bei der Entwicklung sogenannter High-Risk KI-Systeme verlangt, dass der Provider eine Betriebsanleitung erstellt. Diese muss präzise, vollständige, korrekte und eindeutige Informationen enthalten wie Merkmale, Fähigkeiten und Leistungsgrenzen des High-Risk KI-Systems, inklusive technischen Fähigkeiten, die zur Nachvollziehbarkeit seiner Ausgaben beitragen.

Wer trifft eigentlich die besseren Entscheidungen – der Mensch oder KI-Algorithmen?

Christof Zogg: In seinem sehr lesenswerten Buch «Noise» zeigt Wirtschaftsnobelpreisträger Daniel Kahneman auf, dass menschliche Experten, seien es Richter, Forensiker oder Versicherer, ihre Fähigkeiten zum Fällen von exakten und konsistenten Urteilen systematisch überschätzen. Er weist unter anderem nach, dass Richter, wenn ihre Lieblingssportmannschaft am Vorabend das Spiel verloren hat, am nächsten Tag signifikant strengere Urteile fällen. So gesehen könnte eine algorithmische Unterstützung helfen, dass menschliche Entscheidungen weniger verzerrt werden, also von zufälligen Umständen abhängen.

Christof Zogg an den Swisscom Business Days zu KI und die Folgen.

Anne-Sophie Morand: Wer tatsächlich die besseren Entscheidungen trifft – der Mensch oder die Maschine – ist stark vom Kontext abhängig und kann daher nicht dem Grundsatz nach beantwortet werden. Der Einsatz von automatisierten Entscheidungssystemen bietet zahlreiche Vorteile, die sie zu einem wertvollen Werkzeug in der Entscheidungsfindung machen. KI-Systeme sind sehr effizient und können grosse Datenmengen in kürzester Zeit analysieren, um daraus objektive Schlussfolgerungen zu ziehen. Im Idealfallsind diese Schlüsse frei von emotionalen Einflüssen und persönlichen Vorurteilen – sofern natürlich die zugrundeliegenden Trainingsdaten und der Algorithmus selbst vorurteilsfrei sind. Zudem können KI-Systeme ihre Entscheidungsqualität kontinuierlich durch das Lernen aus neuen Daten verbessern. Eine spannende Entwicklung zeigt sich beispielsweise im Medizinbereich, wo automatisierte Entscheidungssysteme immer wichtiger werden. Mit ihrer Fähigkeit, grosse Datenmengen zu analysieren und komplexe Muster zu erkennen, revolutionieren KI-Systeme die medizinische Entscheidungsfindung. Ich bin überzeugt, dass die Entscheidungskompetenz von KI-Systemen in der Medizin in Zukunft so stark sein wird, dass Fachpersonen in bestimmten Use Cases zu deren Einsatz gezwungen sein werden, um optimale Ergebnisse zu erzielen

Auf der anderen Seite bringen menschliche Entscheidungsprozesse Qualitäten ein, die Maschinen nicht bieten können, wie Intuition und echte Empathie. Menschen sind in der Lage, auf implizites Wissen und emotionale Aspekte zurückzugreifen und in unvorhersehbaren Situationen flexibel und kreativ zu reagieren. Das sind Fähigkeiten, die für ethische Überlegungen entscheidend und rein datenbasiert eher schwer zu erfassen sind. Auch wenn künstliche Empathie (KE) längst real ist und KI-Systeme Emotionen vortäuschen können, um unser Wohlbefinden zu fördern, bleibt es die Domäne des Menschen, authentische emotionale Verbindungen herzustellen und tiefes Mitgefühl zu empfinden. Diese einzigartige Fähigkeit wird weiterhin ein unverzichtbarer Bestandteil bestimmter Entscheidungsprozesse bleiben.

Zum Schluss noch ein Blick in die Zukunft: Quantencomputing macht riesige Fortschritte, und eine Kombination mit KI wird möglich sein. Welche Auswirkungen könnte diese Entwicklung auf KI-Technologien und AI Governance haben?

Christof Zogg: Rechenleistung ist eine wichtige Voraussetzung für die weitere Leistungsverbesserung von KI-Modellen, insbesondere beim Training von neuen Modellen, aber auch beim Betreiben (Inference) derselben. Denn mit der Modellnutzung steigt auch der Ressourcenbedarf. So hat OpenAI als Publisherin von ChatGPT kürzlich kommuniziert, dass innerhalb eines Monats 700 Millionen Bilder mit dem stark verbesserten, neuen Modell GPT-4o generiert wurden.

Quantencomputing könnte hier mittel- bis langfristig einen Beitrag leisten und die bisher dominierende Grafikkarten-Architektur (GPUs) ablösen. Ich wage aber trotzdem die Prognose: Die Quantentechnik wird eher eine untergeordnete Rolle bei der KI-Disruption spielen.

Auch die klassischen AI-Chips werden bis auf Weiteres in Moore’scher Geschwindigkeit leistungsfähiger, sodass die limitierenden Faktoren auf dem Weg zu allgemeiner künstlicher Intelligenz (AGI) eher die Reife der Lernalgorithmen und die Verfügbarkeit der Trainingsdaten sein dürften.

Whitepaper: KI-Regulierung

Künstliche Intelligenz führt zu grundlegenden Veränderungen in der Arbeitswelt. Dieses Whitepaper gibt einen Überblick über die aktuellen KI-Regulierungen in der Schweiz und der EU – und worauf es bei einer AI Governance ankommt.

Anne-Sophie Morand: KI entwickelt sich in schnellem Tempo weiter und gleichzeitig macht Quantencomputing spektakuläre Fortschritte. Während heutige KI-Systeme bei der Analyse und Entscheidungsfindung beeindruckende Leistungen erzielen, stossen sie bei exponentiell wachsenden Datenmengen und komplexen Optimierungsaufgaben heute noch an ihre Grenzen. Quantencomputing hingegen könnte Probleme lösen, die für klassische Computer auch in Millionen von Jahren unmöglich bleiben werden. «Quanten-künstliche Intelligenz» (Q-AI) würde die Fähigkeit von heutigen KI-Systemen erheblich erweitern und komplexe Datenanalysen, erstklassige Optimierungen und präzise Simulationen ermöglichen. Damit würde sich auch die Art und Weise, wie Menschen arbeiten und leben, grundlegend verändern.

In Bezug auf AI Governance bedeutet diese technologische Entwicklung, dass wir Governance-Strukturen stets überdenken und weiterentwickeln müssen. Angesichts der potenziellen Macht und Geschwindigkeit von Q-AI würde die Ethik meines Erachtens weiter an Bedeutung gewinnen. Nur so können wir die sich rasch verschiebenden Grenzen des technologisch Machbaren kontrollieren und sicherstellen, dass diese Entwicklungen im Einklang mit menschlichen Werten und gesellschaftlichem Wohl stehen. Governance-Strukturen müssen flexibel genug sein, um rasche Innovationen zu handhaben, und gleichzeitig robust sein, um missbräuchliche Anwendungen zu verhindern. Mit Blick auf Q-AI wird eine weitsichtige AI Governance daher unerlässlich sein, um sowohl Chancen als auch Risiken proaktiv und rasch zu steuern.

Jetzt lesen