Data Science / Artificial Intelligence

Ouvrir la “boîte noire” de l’IA agentique

Les "Large Language Models" (LLM) transforment les processus grâce à leurs capacités de compréhension et de génération du langage humain.

Aujourd'hui, les "IA agentiques", ou "agents d'IA", des systèmes conçus pour une autonomie orientée vers des objectifs, promettent de s'attaquer à des tâches complexes avec une supervision humaine minimale et de transformer la façon dont les logiciels et l'automatisation sont pensés. [1],[2],[3],[4],[5]

Alors que le battage médiatique autour de l'IA entièrement autonome est très présent, la réalité est nuancée par des limitations techniques, des problèmes de qualité des données et des besoins de conformité. La principale problématique réside dans l'équilibre entre la valeur de l'autonomie en déchargeant les tâches complexes et en obtenant des résultats à l'échelle, et les risques inhérents à la prise de décision dite en "boîte noire". La nature probabiliste des LLM signifie que les résultats peuvent être imprévisibles ou erronés, ce qui exige des garde-fous solides. [6]

La sécurité, la confidentialité et les cadres réglementaires comme le revDSG, le RGPD et la loi européenne sur l'IA nécessitent toujours plus une surveillance humaine et une traçabilité, en particulier dans les secteurs critiques. [7],[8],[9] La véritable valeur de l'IA agentique émerge donc lorsqu'elle est ancrée dans des flux de travail contrôlés et une supervision humaine. Nous avons exploré les promesses et les défis de l'IA agentique dans le cadre d'un proof of concept (PoC) impliquant une équipe conjointe de consultants Data & AI de Swisscom et d'ingénieurs de Noumena Digital(ouvre une nouvelle fenêtre).

Principes de fonctionnement et limites de l'IA Agentique

Les systèmes d'IA agentiques représentent un passage des modèles d'IA réactifs à des systèmes proactifs capables d'actions en plusieurs étapes et de prises de décisions pour atteindre des objectifs. Ces programmes autonomes alimentés par des LLM perçoivent leur environnement, planifient, invoquent des outils, par exemple par le biais d'API et de serveurs Model Context Protocol (MCP), et interagissent avec l'environnement numérique et d'autres agents, en utilisant, entre autres, des implémentations d'agent à agent (A2A). [10]

L'IA agentique fonctionne selon un cycle itératif continu, décrit comme une boucle Perception-Raisonnement-Action-Rétroaction ou, de la même manière, un cycle Pensée-Action-Observation: [1],[10],[11],[12],[26]

1. Perception (Observation): Le système ingère et interprète diverses données, structurées (bases de données, APIs) et non structurées (images, emails).

2. Raisonnement (Pensée): Les LLMs ou les modèles multimodaux déterminent la meilleure action à prendre en se basant sur l'interprétation des données and l'objectif global, en choisissant parmi les outils disponibles.

3. Action: L'agent exécute l'action choisie, comme appeler une API externe ou un serveur MCP, en suivant des garde-fous prédéfinis.

4. Feedback (Observation): Le résultat de l'action est retourné au système pour informer la prochaine étape de raisonnement ou planifier un ajustement.

Les humains peuvent prendre part à n'importe quelle étape pour guider ou approuver ("human-in-the-loop"). Les agents sont conçus pour exister sur un spectre d'autonomie, allant des 3simples appels LLM au sein de flux de travail codés par l'homme à des systèmes hautement autonomes qui choisissent dynamiquement leurs actions. [4]

Trouver un équilibre entre la création de valeur et les risques inhérents

L'IA agentique offre divers avantages mais introduit également des risques importants que les entreprises doivent prévenir. Voici une liste de cas d'usage réussis:

  •  Assurance – Traitement plus rapide des demandes d'indemnisation: L'IA agentique rationalise le cycle de vie des réclamations, de la soumission initiale au règlement, en utilisant le NLP et la reconnaissance d'images pour évaluer de manière autonome les réclamations, détecter les fraudes et automatiser la communication, ce qui conduit à des résolutions plus rapides et (potentiellement) plus précises. [13],[14],[15], [16]
  • Industrie – Maintenance prédictive et réplicas digitaux: Les agents d'IA analyse les données des machines (i.e. des capteurs IoT) pour prédire les pannes et déclencher une maintenance préventive ou plus rapide. [17],[18] Une collaboration du Groupe KION, d'Accenture et de NVIDIA utilise des réplicas numériques pour simuler et optimiser les opérations d'entrepôt, où des agents autonomes virtuels gèrent les marchandises et les itinéraires. [19],[20] Des startups suisses comme www.ethon.ai ou www.cerrion.com utilisent des agents d'IA pour fournir des informations sur les processus aux opérateurs et/ou déclencher d'autres flux de travail en cas de détection d'un problème.
  • Secteur public – Automatisation de processus: La suite de logiciels IA "Humphrey" du gouvernement britannique automatise les tâches administratives telles que la transcription des réunions et l'analyse des consultations publiques, dans le but de libérer les fonctionnaires pour le travail stratégique. [21],[22]

Cependant, l'IA a aussi ses cas d'échec marquants. Dans un cas très médiatisé en 2024, un chatbot d'Air Canada a fourni des informations erronées sur les politiques tarifaires en cas de deuil. La compagnie aérienne en a été tenue pour responsable, ce qui montre que les entreprises peuvent être responsables des erreurs commises par leurs systèmes d'IA. [23],[24]

Cas d'usage PoC: Traitement des demandes d'indemnisation

Pour le PoC, nous avons utilisé la suite technologique de Noumena, qui met l'accent sur la sécurité de niveau entreprise, le contrôle d'accès granulaire, les traces d'audit et l'orchestration avec permission. Pour mettre cela à l'épreuve, Swisscom et Noumena se sont associés pour un "Proof of Concept" (PoC) visant à explorer l'IA agentique sécurisée dans le traitement des demandes d'indemnisation à l'assurance.

Traditionnellement, les demandes d'indemnisation sont classées, examinées et ajustées. La classification dirige la demande vers le bon département. L'examen évalue l'exhaustivité, la fiabilité et la validité des informations, déterminant ainsi l'éligibilité et l'indemnisation. Les demandes refusées nécessitent des explications claires. Un expert en sinistres propre à chaque département recoupe les examens pour en vérifier la qualité et l'équité.

L'IA peut automatiser la classification et l'examen. Dans ce PoC, un LLM a classé les demandeset a donné accès à des réviseurs LLM spécifiques à chaque département. Pour assurer une supervision humaine, l'expert reste généralement un être humain. Cependant, pour illustrer la souplesse de mise en œuvre des règles, le PoC comprenait une règle permettant auxrecommandations des réviseurs, pour les petits montants, de contourner l'ajustement humain.Le PoC s'est concentré sur l'intégration transparente des services, l'orchestration des interactions entre l'IA et les humains le long de flux de travail traçables, la restriction de l'accès des agents (qu'il s'agisse d'IA ou d'humains) aux données selon le principe de "Need to know", et la mise en œuvre de politiques de délégation transparentes en matière d'IA.

Flux de traitement des demandes d'assurance tel qu'il a été mis en œuvre dans le PoC. Le traitement des réclamations (santé, voiture, ménage) utilisait l'IA pour la classification et l'examen spécifique au département, en s'appuyant sur Claude 3.5 Sonnet via AWS Bedrock. Les experts humains prenaient les décisions finales.

Ce PoC a démontré l'application pratique de l'IA agentique pour l'automatisation de tâches complexes, plus spécifiquement en:

  • Raisonnement: Les services LLM ont remplacé avec succès la classification et l'examen humain, en fournissant des réponses précises à l'aide des données relatives aux réclamations et aux polices d'assurance.
  • Automatisation de processus: Les services d'IA ont permis une automatisation complète, l'intervention humaine n'arrivant que pour les chemins où elle estexplicitement requise.

The PoC also validated the effectiveness of Noumena’s technological approach in addressing some key challenges of Agentic AI in the enterprise context:

  • Controles d'accès: Les agents IA ont besoin de permissions adaptées au contexte. LeNoumena Access model a fourni un cadre pour orchestrer les agents d'intelligence artificielle avec des garanties de sécurité, en combinant un langage déclaratif pour les politiques avec des attributs d'exécution pour assurer la confidentialité des données et l'accès en temps voulu, selon le principe "Need to know", grâce à un contrôle affiné.
  • Auditabilité: Les entreprises doivent appliquer la minimisation des données, en veillant à ce que les agents n'accèdent qu'aux informations requises pour des tâches spécifiques. La conformité au RGPD nécessite des contrôles stricts sur la suppression et la localisation des données. La traçabilité est requise pour chaque action entreprise par un agent d'IA. La solution a assuré une traçabilité complète en enregistrant toutes les actions et décisions des agents d'IA, ce qui est crucial pour la conformité et la responsabilité.
  • Responsabilisation & élaboration d'une politique de délégation flexible: Les agents d'IA ont besoin d'un accès temporaire, lié aux processus, avec non-répudiation (actions consignées et traçables). Les organisations ont besoin de traces d'audit claires sur les décisions des agents. Noumena Access fournit un accès dynamique et garantit la nonrépudiation grâce à une trace d'audit qui relie les actions aux utilisateurs autorisés. Le PoC a permis un workflow-as-code flexible pour la délégation de services d'IA et la supervision humaine (par exemple, avec les seuils de montants de réclamation).

Dans l'ensemble, le PoC a démontré avec succès le potentiel de l'IA agentique à remodeler les processus d'affaires grâce à des gains d'efficacité. Il a également montré la capacité de la technologie de Noumena à permettre des systèmes d'IA agentique sécurisés et auditables en fournissant des garde-fous d'exécution.

Pistes stratégiques: Mettre en œuvre l'IA agentique de manière responsable

Au-delà des choix technologiques, les projets d'IA agentique doivent suivre une stratégie bien pensée pour garantir leur succès. Une approche stratégique progressive qui intègre l'atténuation des risques est cruciale pour le déploiement de l'IA agentique. Suivez quelques principes directeurs lors de la mise en œuvre de PoC et de déploiements d'IA agentique:

  • Le bon cas d'usage: Commencez par l'essentiel, des taches internes avec un risque faible à modéré.
  • Des délimitations claires: Limitez strictement les capacités et champ d'action au départ. Mettez en place la stratégie "human-in-the-loop".
  • Mesurer et enregistrer: Définissez des marqueurs de réussite et enregistrer toutes l'activité de l'agent pour les besoins d'audit et de conformité. [6]

De plus, veillez à suivre une approche de déploiement par étapes:

1. Des déploiements de pilotes et beta contrôlés: Portée limitée, surveillance étroite, dans le but de valider les fonctionnalités de base. Avec une production limitée et une base d'utilisateurs restreinte, tests de l'extensibilité et des performances réelles.

2. Une adoption large: Déploiement plus large, élargissement progressif des responsabilités, intégration formelle dans les processus d'entreprise avec gouvernance.

3. Amélioration et maintenance continues: Mise à jour continue des modèles, examen des performances et adaptation aux nouvelles règles ou données.

La transparence avec les parties prenantes et la promotion de la préparation culturelle sont cruciales tout au long du processus. [25]

Vers une IA agentique pragmatique et contrôlable

L'auditabilité et le contrôle favoriseront l'innovation au lieu de l'étouffer. Les agents dignes de confiance, transparents et contrôlables seront déployés plus largement et avec plus d'importance. "Agenticité pragmatique" signifie construire des agents aussi autonomes que possible encadrés par des garde-fous bien définis, éclairer continuellement leur fonctionnement interne et maintenir une approche d'humains aux commandes. Ce voyage exige de la diligence. Mais en transformant la "boîte noire" de l'IA en une "boîte de verre", nous pouvons exploiter son pouvoir pour un avenir de collaboration efficace entre l'homme et l'IA.

L'IA agentique marque une nouvelle frontière dans l'automatisation et l'intelligence. Pour réaliser ses promesses, les entreprises doivent en ouvrir la boîte noire. Cela permet de rendre les systèmes auditables, compréhensibles et contrôlables par le biais d'une surveillance et de contraintes, comme dans le PoC exploré ci-dessus.

Le pragmatisme est primordial. Les organisations doivent expérimenter avec audace tout en gouvernant de manière responsable. Elles devraient investir dans l'expertise humaine et les outils de transparence. L'IA doit être considérée comme un assistant puissant. Cependant, ses résultats doivent être remis en question et vérifiés, en particulier dans les scénarios à haut risque. Les décideurs politiques et les groupes industriels doivent élaborer des normes et des cadres de vérification. Cela pourrait être similaire à ceux de la finance ou de l'ingénierie de la sécurité, afin de garantir une innovation responsable. [7]

Auteurs:

1. What is Agentic AI? A Practical Guide - K2view, Accessed on May 23rd, 2025,  https://www.k2view.com/what-is-agentic-ai/(ouvre une nouvelle fenêtre)

2. Agentic AI: What you need to know about AI agents | CSAIL Alliances, Abgerufen am 23. Mai 2025, https://cap.csail.mit.edu/agentic-ai-what-you-need-know-about-ai-agents(ouvre une nouvelle fenêtre)

3. What is AI? - AI Tools and Resources for Biomedical Research, Abgerufen am 23. Mai 2025, https://laneguides.stanford.edu/AI/what-is-ai(ouvre une nouvelle fenêtre)

4. What on Earth are Agents? Jensen Low, Abgerufen am 23. Mai 2025,
https://www.jensenlwt.com/blog/what-on-earth-are-agents/(ouvre une nouvelle fenêtre)

5. Agents Simplified: What we mean in the context of AI | Weaviate, Abgerufen am 23. Mai 2025, https://weaviate.io/blog/ai-agents(ouvre une nouvelle fenêtre)

6. Reducing LLM Hallucinations: A Developer's Guide
- Zep, Abgerufen am 23. Mai 2025, https://www.getzep.com/ai-agents/reducing-llm-hallucinations(ouvre une nouvelle fenêtre)

7. The AI Act Explorer | EU Artificial Intelligence Act, Abgerufen am 23. Mai 2025, https://artificialintelligenceact.eu/ai-act-explorer/(ouvre une nouvelle fenêtre)

8. Art. 22 GDPR – Automated individual decision-making, including ..., Abgerufen am 23. Mai 2025, https://gdpr-info.eu/art-22-gdpr/(ouvre une nouvelle fenêtre)

9. FINMA Guidance 08/2024 Governance and Risk Management when ..., Abgerufen am 23. Mai 2025, https://www.mll-news.com/finma-guidance-08-2024-governance-and- risk-management-when-using-artificial-intelligence/?lang=en(ouvre une nouvelle fenêtre)

10. Control Plane as a Tool: A Scalable Design Pattern for Agentic AI Systems - arXiv, Abgerufen am 23. Mai 2025, https://arxiv.org/html/2505.06817v1(ouvre une nouvelle fenêtre)

11. Agentic AI: A guide to the next wave of CX innovation - PolyAI, Abgerufen am 23. Mai 2025, https://poly.ai/agentic-ai/(ouvre une nouvelle fenêtre)

12. Understanding AI Agents through the Thought-Action-Observation ..., Abgerufen am 23. Mai 2025, https://huggingface.co/learn/agents-course/unit1/agent-steps-and-structure(ouvre une nouvelle fenêtre)

13. Agentic AI in Insurance: Transforming Insurance with AI, Abgerufen am 23. Mai 2025, https://hexaware.com/blogs/agentic-ai-in-insurance-transforming-the-industry-with- enterprise-ai/(ouvre une nouvelle fenêtre)

14. Agentic AI for Insurance | Real-Time Insights and Outcomes - XenonStack, Abgerufen am 23. Mai 2025, https://www.xenonstack.com/blog/agentic-ai-insurance-claims(ouvre une nouvelle fenêtre)

15. Agentic AI: Automated Claims Processing Multi-Agent System - IDC, Abgerufen am 23. Mai 2025 https://my.idc.com/getdoc.jsp?containerId=US52880425CpageType=PRINTFRIENDLY(ouvre une nouvelle fenêtre)

16. Use Cases for AI Agents C Agentic Automation | Beam AI, Abgerufen am 23. Mai 2025, https://beam.ai/articles(ouvre une nouvelle fenêtre)

17. AI-based predictive maintenance - Siemens Global, Abgerufen am 23. Mai 2025, https://www.siemens.com/global/en/products/automation/topic-areas/industrial- ai/usecases/ai-based-predictive-maintenance.html(ouvre une nouvelle fenêtre)

18. Senseye Predictive Maintenance - Siemens Global,
Abgerufen am 23.
Mai 2025, https://www.siemens.com/global/en/products/services/digital-enterprise- services/analytics-artificial-intelligence-services/senseye-predictive- maintenance.html(ouvre une nouvelle fenêtre)

19. KION Teams with NVIDIA and Accenture to Optimize Supply Chains..., Abgerufen am23. Mai 2025, https://erp.today/kion-teams-with-nvidia-and-accenture-to-optimize- supply-chains-with-ai-powered-robots-and-digital-twins/(ouvre une nouvelle fenêtre)

20. KION presents AI Control Tower at GTC in San José, California - Our current press releases | KION GROUP AG, Abgerufen am 23. Mai 2025, https://www.kiongroup.com/en/News-Stories/Press-Releases/Press-Releases- Detail.html?id=2954666(ouvre une nouvelle fenêtre)

21. UK government's AI system 'Humphrey' set to review thousands of public consultations to improve civil service efficiency, Abgerufen am 23. Mai 2025, https://www.globalgovernmentforum.com/uk-governments-ai-system-humphrey-set- to-review-thousands-of-public-consultations-to-improve-civil-service-efficiency/(ouvre une nouvelle fenêtre)

22. AI experiments see “Humphrey” help townhalls cut costs and ..., Abgerufen am 23. Mai 2025, https://www.gov.uk/government/news/ai-experiments-see-humphrey-help- townhalls-cut-costs-and-improve-services(ouvre une nouvelle fenêtre)

23. BC Tribunal Confirms Companies Remain Liable for Information ..., Abgerufen am 23. Mai 2025, https://www.americanbar.org/groups/business_law/resources/business- law-today/2024-february/bc-tribunal-confirms-companies-remain-liable-information- provided-ai-chatbot/(ouvre une nouvelle fenêtre)

24. Air Canada Held Liable For Chatbot Misinformation - One Mile at a Time, Abgerufen am23. Mai 2025, https://onemileatatime.com/news/air-canada-liable-chatbot- misinformation/(ouvre une nouvelle fenêtre)

25. How COOs maximize operational impact from gen AI and agentic AI ..., Abgerufen am23. Mai 2025, https://www.mckinsey.com/capabilities/operations/our-insights/how- coos-maximize-operational-impact-from-gen-ai-and-agentic-ai(ouvre une nouvelle fenêtre)

26. Microsoft Agent Framework, Abgerufen am 5. Oktober 2025, https://learn.microsoft.com/en-us/agent-framework/overview/agent-framework- overview(ouvre une nouvelle fenêtre)

Severin Husmann

Severin Husmann

Senior Consultant Data & AI

Plus d’articles getIT

Prêts pour Swisscom

Trouve le Job ou l’univers professionnel qui te convient. Où tu veux co-créer et évoluer.

Ce qui nous définit, c’est toi.

Vers les univers professionnels

Vers les postes vacants cybersécurité