Data Science / Artificial Intelligence
Das “Black Box” Phänomen von Agentic AI
Grosse Sprachmodelle (Large Language Models, LLMs) transformieren Prozesse dank ihrer Fähigkeiten im natürlichen Sprachverständnis und in der Textgenerierung.
Data Science / Artificial Intelligence
Grosse Sprachmodelle (Large Language Models, LLMs) transformieren Prozesse dank ihrer Fähigkeiten im natürlichen Sprachverständnis und in der Textgenerierung.
Nun versprechen neue Systeme auf Basis von «Agentic AI» («AI Agents», «agentische KI», «KI-Systeme»), welche auf zielgerichtete Autonomie ausgelegt sind, komplexe Aufgaben mit minimaler menschlicher Aufsicht zu bewältigen. Dabei verändern sie grundlegend die Art und Weise, wie Software und Automatisierung konzipiert und genutzt wird. [1],[2],[3],[4],[5]
Während der Hype rund um vollständig autonome KI gross ist, relativiert er sich in der Realität durch technische Einschränkungen, Herausforderungen in der Datenqualität und Compliance Anforderungen. Die wesentliche Herausforderung besteht darin, den Nutzen autonomer Systeme etwa durch das Delegieren komplexer Aufgaben und das Erreichen skalierbarer Ergebnisse mit den damit verbundenen Risiken der «Black Box»-Entscheidungsfindung in Einklang zu bringen. Da LLMs probabilistisch arbeiten, können ihre Ausgaben unvorhersehbar oder fehlerhaft sein. Solche Systeme erfordern daher klare und robuste Leitplanken («Guardrails»). [6]
Regulatorische Vorgaben sowie Sicherheit und Datenschutz wie beispielsweise das revDSG, die DSGVO (GDPR) und der EU AI Act erfordern zudem eine menschliche Aufsicht und Nachvollziehbarkeit, insbesondere in kritischen Sektoren. [7],[8],[9]
Der eigentliche Mehrwert von Agentic AI entsteht deshalb erst, wenn sie in strukturierteWorkflows mit menschlicher Kontrolle eingebettet wird. In einem Proof of Concept (PoC) haben wir die Potenziale und Herausforderungen von Agentic AI untersucht. Der PoC wurde in einem Team mit Swisscom Data & AI Consulting und Noumena Digital(öffnet ein neues Fenster) Entwicklern umgesetzt.
Agentische KI-Systeme markieren einen Wandel von reaktiven KI-Modellen hin zu proaktiven Systemen, die in der Lage sind, mehrstufige Workflows und eigenständige Entscheidungsprozesse zur Zielerreichung auszuführen. Diese auf LLMs basierenden autonomen Programme nehmen ihre Umgebung wahr, planen, rufen Werkzeuge etwa durch APIs oder Model Context Protocol (MCP) Server auf und interagieren mit digitalen Umgebungen und anderen Agenten, welche beispielsweise Agent-to-Agent (A2A) Kommunikation nutzen. [10]
Agentic AI operiert in einem kontinuierlich iterativen Zyklus, der als Perception-Reasoning Action-Feedback-Schleife oder vergleichbar als Thought-Action-Observation-Zyklus beschrieben wird: [1],[10],[11],[12],[26]
1. Wahrnehmung (Perception / Observation): Das System erfasst und interpretiert diverse Datenquellen von strukturierten Daten von Datenbanken oder APIs bis zu unstrukturierten Daten wie Bildern und E-Mails.
2. «Logisches Denken» (Reasoning / Thought): LLMs oder multimodale Modelle bestimmen auf Basis der interpretierten Daten und des übergeordneten Ziels die jeweils nächste optimale Handlung und wählen diese aus den verfügbaren Werkzeugen aus.
3. Handlung (Action): Der Agent (KI) führt die ausgewählte Aktion aus, etwa durch den Aufruf einer externen API oder eines MCP-Servers, unter Einhaltung vordefinierter Schutzmechanismen (den Guardrails).
4. Rückmeldung (Observation): Das Ergebnis der Handlung wird an das System zurückgeführt und dient als Grundlage für den nächsten Schlussfolgerungsschritt oder für eine Anpassung des Plans.
Menschen können in jeder Phase dieses Zyklus zur Steuerung oder Freigabe eingebunden werden («Human-in-the-Loop»). Die KI Agenten sind dabei auf einem Kontinuum der Autonomie angesiedelt. Dieses reicht von einzelnen LLM-Aufrufen innerhalb menschlich vordefiniertenWorkflows bis hin zu hochgradig autonomen Systemen, die ihre Handlungen dynamisch und kontextabhängig selbst bestimmen. [4]
Agentische KI bietet vielfältige Vorteile, bringt jedoch zugleich erhebliche Risiken mit sich, die Unternehmen aktiv adressieren und kontrollieren müssen. Ausgewählte erfolgreiche Anwendungsfälle sind folgende:
Gleichzeitig existieren aber auch prominente Fehlanwendungen von künstlicher Intelligenz sowie Chatbots. In einem vielbeachteten Fall aus dem Jahr 2024, lieferte ein Chatbot von Air Canada fehlerhafte Informationen zu Kulanzregelungen bei Todesfällen. Die Fluggesellschaft wurde dafür haftbar gemacht. Dies ist ein deutliches Beispiel dafür, dass Unternehmen fürFehler ihrer KI-Systeme rechtlich verantwortlich sein können. [23],[24]
Für den Proof of Concept (PoC) nutzten wir unter anderem Tools aus dem Noumena Digital Technologie-Stack. Noumena Digital’s Technologie ist auf unternehmensgerechte Sicherheit, feingranulare Zugriffskontrollen, Audit-Trails sowie eine berechtigungsbasierte Orchestrierung ausgelegt. Um diese Fähigkeiten in der Praxis zu erproben, arbeiteten Swisscom und Noumena Digital in einem PoC-Projekt zusammen, das den Einsatz sicherer agentischer KI in der Schadenbearbeitung von Versicherungen untersuchte.
Traditionell werden Schadenfälle klassifiziert, geprüft und reguliert. Die Klassifizierung leitetden Schadenfall zur zuständigen Fachabteilung. In der Prüfung werden Vollständigkeit, Plausibilität und Validität der eingereichten Informationen bewertet, um Anspruchsberechtigung und Entschädigungshöhe festzulegen. Dabei erfordern abgelehnte Schadenfälle eine nachvollziehbare und transparente Begründung. Ein fachspezifischer Schadenregulierer überprüft die Ergebnisse zusätzlich im Hinblick auf Qualität und Fairness.
KI kann sowohl die Klassifizierung als auch die Prüfung automatisieren. In diesem PoC klassifizierte ein LLM die Schadenfälle und ermöglichte den Zugriff auf abteilungsspezifische LLM-basierte Prüfer. Zur Sicherstellung menschlicher Kontrolle verbleibt die Rolle des Schadenregulierers in der Regel beim Menschen. Um die flexible Umsetzung von Richtlinien zu demonstrieren, beinhaltete der PoC eine Zusatzregel, nach welcher Empfehlungen der Prüfer bei geringfügigen Schadenbeträgen ohne menschliche Freigabe direkt umgesetzt werden konnten. Der PoC konzentrierte sich darauf, diverse Services nahtlos zu integrieren, KI- und menschliche Interaktionen entlang nachvollziehbarer Workflows zu orchestrieren und den Zugriff von Agenten, unabhängig davon, ob es sich um KI oder Menschen handelt, strikt nach dem Need-to-know-Prinzip zu beschränken. Zudem sollten transparente Richtlinien zur Delegation von KI-Entscheidungen implementiert werden.
Verarbeitungsablauf für Schadenfälle im PoC. Die Schadenbearbeitung (Kranken-, Kfz- und Hausratversicherungen) nutzt KI zur Klassifizierung und fachabteilungsspezifischen Prüfungen (Claude Sonnet via AWS Bedrock); die finale Entscheidung erfolgt durch menschliche Schadenregulierer.
Dieser PoC demonstrierte die praktische Anwendbarkeit agentischer KI bei der Automatisierung komplexer Aufgaben, insbesondere in den folgenden Bereichen:
Darüber hinaus validierte der PoC die Wirksamkeit des technologischen Ansatzes von Noumena bei der Bewältigung zentraler Herausforderungen agentischer KI im Unternehmenskontext:
Insgesamt zeigte der PoC eindrucksvoll das Potenzial agentischer KI, Geschäftsprozesse durch signifikante Effizienzgewinne neu zu gestalten. Gleichzeitig belegte er die Fähigkeit der Noumena-Technologie, sichere und auditierbare agentische KI-Systeme durch klar definierte Ausführungsleitplanken („Execution Guardrails“) zu ermöglichen.
Über reine Technologieentscheidungen hinaus erfordern Projekte mit agentischer KI eine durchdachte Gesamtstrategie, um nachhaltig erfolgreich zu sein. Ein phasenweiser, strategischer Ansatz mit integrierter Risikominimierung ist entscheidend für den verantwortungsvollen Einsatz agentischer KI. Bei der Umsetzung von PoCs und Produktivsetzungen agentischer KI sollten folgende Leitprinzipien beachtet werden:
Darüber hinaus empfiehlt sich ein abgestufter Einführungsansatz:
1. Kontrollierter Pilot- und Beta-Betrieb: Begrenzter Funktionsumfang und intensive Überwachung mit dem Ziel, Kernfunktionalitäten zu validieren. In einer eingeschränkten Produktionsumgebung mit limitierter Nutzerbasis werden Skalierbarkeit und reale Leistungsfähigkeit getestet.
2. Breite Einführung: Schrittweise Ausweitung des Einsatzes und der Verantwortlichkeiten sowie formale Integration in Geschäftsprozesse unter klar definierten Governance-Strukturen.
3. Kontinuierliche Weiterentwicklung und Betrieb: Regelmässige Modellaktualisierungen, Performance-Reviews sowie Anpassungen an neue regulatorische Anforderungen oder Datenlagen.
Über alle Phasen hinweg sind Transparenz gegenüber allen Stakeholdern sowie der gezielte Aufbau kultureller und organisatorischer Bereitschaft von zentraler Bedeutung. [25]
Agentische KI-Systeme markieren eine neue Entwicklungsstufe von Automatisierung und intelligenter Entscheidungsfindung. Um ihr Potenzial auszuschöpfen, müssen Unternehmen die «Black Box» öffnen. Dadurch werden KI-Systeme, wie im PoC gezeigt, auditierbarer, verständlicher und durch geeignete Kontrollmechanismen sowie klare Begrenzungen steuerbarer.
Pragmatismus ist dabei entscheidend. Organisationen sollten mutig experimentieren und zugleich verantwortungsvoll steuern. Investitionen in menschliche Expertise und Transparenzwerkzeuge sind ebenso notwendig wie ein realistisches Verständnis der Rolle von KI: als leistungsfähiger Assistent, dessen Ergebnisse insbesondere in risikoreichen Anwendungsfällen kritisch hinterfragt und überprüft werden müssen. Parallel dazu sind Gesetzgeber und Branchenverbände gefordert, Standards und Audit-Frameworks zu entwickeln – vergleichbar mit denen aus der Finanzwirtschaft oder dem Sicherheitsingenieurwesen –, um verantwortungsvolle Innovation zu ermöglichen. [7]
Auditierbarkeit und Kontrolle wirken dabei nicht innovationshemmend, sondern innovationsfördernd. Vertrauenswürdige, transparente und steuerbare AI Agents werden schneller und selbstbewusster in der Breite eingesetzt. «Pragmatische Autonomie» bedeutet, Agenten so autonom wie möglich innerhalb klar verstandener Leitplanken zu gestalten, ihre inneren Abläufe kontinuierlich sichtbar zu machen und stets einen Human-in-Command-Ansatz beizubehalten. Dieser Weg erfordert Sorgfalt und Disziplin. Doch indem wir die KI-«Black Box» in eine «Glass Box» verwandeln, schaffen wir die Grundlage für eine Zukunft wirkungsvoller und vertrauensvoller Mensch-KI-Zusammenarbeit.
Autoren:
1. What is Agentic AI? A Practical Guide - K2view, Abgerufen am 23. Mai 2025, https://www.k2view.com/what-is-agentic-ai/(öffnet ein neues Fenster)
2. Agentic AI: What you need to know about AI agents | CSAIL Alliances, Abgerufen am 23. Mai 2025, https://cap.csail.mit.edu/agentic-ai-what-you-need-know-about-ai-agents(öffnet ein neues Fenster)
3. What is AI? - AI Tools and Resources for Biomedical Research, Abgerufen am 23. Mai 2025, https://laneguides.stanford.edu/AI/what-is-ai(öffnet ein neues Fenster)
4. What on Earth are Agents? Jensen Low, Abgerufen am 23. Mai 2025,
https://www.jensenlwt.com/blog/what-on-earth-are-agents/(öffnet ein neues Fenster)
5. Agents Simplified: What we mean in the context of AI | Weaviate, Abgerufen am 23. Mai 2025, https://weaviate.io/blog/ai-agents(öffnet ein neues Fenster)
6. Reducing LLM Hallucinations: A Developer's Guide
- Zep, Abgerufen am 23. Mai 2025, https://www.getzep.com/ai-agents/reducing-llm-hallucinations(öffnet ein neues Fenster)
7. The AI Act Explorer | EU Artificial Intelligence Act, Abgerufen am 23. Mai 2025, https://artificialintelligenceact.eu/ai-act-explorer/(öffnet ein neues Fenster)
8. Art. 22 GDPR – Automated individual decision-making, including ..., Abgerufen am 23. Mai 2025, https://gdpr-info.eu/art-22-gdpr/(öffnet ein neues Fenster)
9. FINMA Guidance 08/2024 Governance and Risk Management when ..., Abgerufen am 23. Mai 2025, https://www.mll-news.com/finma-guidance-08-2024-governance-and- risk-management-when-using-artificial-intelligence/?lang=en(öffnet ein neues Fenster)
10. Control Plane as a Tool: A Scalable Design Pattern for Agentic AI Systems - arXiv, Abgerufen am 23. Mai 2025, https://arxiv.org/html/2505.06817v1(öffnet ein neues Fenster)
11. Agentic AI: A guide to the next wave of CX innovation - PolyAI, Abgerufen am 23. Mai 2025, https://poly.ai/agentic-ai/(öffnet ein neues Fenster)
12. Understanding AI Agents through the Thought-Action-Observation ..., Abgerufen am 23. Mai 2025, https://huggingface.co/learn/agents-course/unit1/agent-steps-and-structure(öffnet ein neues Fenster)
13. Agentic AI in Insurance: Transforming Insurance with AI, Abgerufen am 23. Mai 2025, https://hexaware.com/blogs/agentic-ai-in-insurance-transforming-the-industry-with- enterprise-ai/(öffnet ein neues Fenster)
14. Agentic AI for Insurance | Real-Time Insights and Outcomes - XenonStack, Abgerufen am 23. Mai 2025, https://www.xenonstack.com/blog/agentic-ai-insurance-claims(öffnet ein neues Fenster)
15. Agentic AI: Automated Claims Processing Multi-Agent System - IDC, Abgerufen am 23. Mai 2025 https://my.idc.com/getdoc.jsp?containerId=US52880425CpageType=PRINTFRIENDLY(öffnet ein neues Fenster)
16. Use Cases for AI Agents C Agentic Automation | Beam AI, Abgerufen am 23. Mai 2025, https://beam.ai/articles(öffnet ein neues Fenster)
17. AI-based predictive maintenance - Siemens Global, Abgerufen am 23. Mai 2025, https://www.siemens.com/global/en/products/automation/topic-areas/industrial- ai/usecases/ai-based-predictive-maintenance.html(öffnet ein neues Fenster)
18. Senseye Predictive Maintenance - Siemens Global,
Abgerufen am 23. Mai 2025, https://www.siemens.com/global/en/products/services/digital-enterprise- services/analytics-artificial-intelligence-services/senseye-predictive- maintenance.html(öffnet ein neues Fenster)
19. KION Teams with NVIDIA and Accenture to Optimize Supply Chains..., Abgerufen am23. Mai 2025, https://erp.today/kion-teams-with-nvidia-and-accenture-to-optimize- supply-chains-with-ai-powered-robots-and-digital-twins/(öffnet ein neues Fenster)
20. KION presents AI Control Tower at GTC in San José, California - Our current press releases | KION GROUP AG, Abgerufen am 23. Mai 2025, https://www.kiongroup.com/en/News-Stories/Press-Releases/Press-Releases- Detail.html?id=2954666(öffnet ein neues Fenster)
21. UK government's AI system 'Humphrey' set to review thousands of public consultations to improve civil service efficiency, Abgerufen am 23. Mai 2025, https://www.globalgovernmentforum.com/uk-governments-ai-system-humphrey-set- to-review-thousands-of-public-consultations-to-improve-civil-service-efficiency/(öffnet ein neues Fenster)
22. AI experiments see “Humphrey” help townhalls cut costs and ..., Abgerufen am 23. Mai 2025, https://www.gov.uk/government/news/ai-experiments-see-humphrey-help- townhalls-cut-costs-and-improve-services(öffnet ein neues Fenster)
23. BC Tribunal Confirms Companies Remain Liable for Information ..., Abgerufen am 23. Mai 2025, https://www.americanbar.org/groups/business_law/resources/business- law-today/2024-february/bc-tribunal-confirms-companies-remain-liable-information- provided-ai-chatbot/(öffnet ein neues Fenster)
24. Air Canada Held Liable For Chatbot Misinformation - One Mile at a Time, Abgerufen am23. Mai 2025, https://onemileatatime.com/news/air-canada-liable-chatbot- misinformation/(öffnet ein neues Fenster)
25. How COOs maximize operational impact from gen AI and agentic AI ..., Abgerufen am23. Mai 2025, https://www.mckinsey.com/capabilities/operations/our-insights/how- coos-maximize-operational-impact-from-gen-ai-and-agentic-ai(öffnet ein neues Fenster)
26. Microsoft Agent Framework, Abgerufen am 5. Oktober 2025, https://learn.microsoft.com/en-us/agent-framework/overview/agent-framework- overview(öffnet ein neues Fenster)
Senior Consultant Data & AI
Finde deinen Job oder die Karrierewelt, die zu dir passt. In der du mitgestalten und dich weiterentwickeln willst.
Was du draus machst, ist was uns ausmacht.