Data Science / Artificial Intelligence
Ouvrir la “boîte noire” de l’IA agentique
Les "Large Language Models" (LLM) transforment les processus grâce à leurs capacités de compréhension et de génération du langage humain.
Data Science / Artificial Intelligence
Les "Large Language Models" (LLM) transforment les processus grâce à leurs capacités de compréhension et de génération du langage humain.
Aujourd'hui, les "IA agentiques", ou "agents d'IA", des systèmes conçus pour une autonomie orientée vers des objectifs, promettent de s'attaquer à des tâches complexes avec une supervision humaine minimale et de transformer la façon dont les logiciels et l'automatisation sont pensés. [1],[2],[3],[4],[5]
Alors que le battage médiatique autour de l'IA entièrement autonome est très présent, la réalité est nuancée par des limitations techniques, des problèmes de qualité des données et des besoins de conformité. La principale problématique réside dans l'équilibre entre la valeur de l'autonomie en déchargeant les tâches complexes et en obtenant des résultats à l'échelle, et les risques inhérents à la prise de décision dite en "boîte noire". La nature probabiliste des LLM signifie que les résultats peuvent être imprévisibles ou erronés, ce qui exige des garde-fous solides. [6]
La sécurité, la confidentialité et les cadres réglementaires comme le revDSG, le RGPD et la loi européenne sur l'IA nécessitent toujours plus une surveillance humaine et une traçabilité, en particulier dans les secteurs critiques. [7],[8],[9] La véritable valeur de l'IA agentique émerge donc lorsqu'elle est ancrée dans des flux de travail contrôlés et une supervision humaine. Nous avons exploré les promesses et les défis de l'IA agentique dans le cadre d'un proof of concept (PoC) impliquant une équipe conjointe de consultants Data & AI de Swisscom et d'ingénieurs de Noumena Digital(ouvre une nouvelle fenêtre).
Les systèmes d'IA agentiques représentent un passage des modèles d'IA réactifs à des systèmes proactifs capables d'actions en plusieurs étapes et de prises de décisions pour atteindre des objectifs. Ces programmes autonomes alimentés par des LLM perçoivent leur environnement, planifient, invoquent des outils, par exemple par le biais d'API et de serveurs Model Context Protocol (MCP), et interagissent avec l'environnement numérique et d'autres agents, en utilisant, entre autres, des implémentations d'agent à agent (A2A). [10]
L'IA agentique fonctionne selon un cycle itératif continu, décrit comme une boucle Perception-Raisonnement-Action-Rétroaction ou, de la même manière, un cycle Pensée-Action-Observation: [1],[10],[11],[12],[26]
1. Perception (Observation): Le système ingère et interprète diverses données, structurées (bases de données, APIs) et non structurées (images, emails).
2. Raisonnement (Pensée): Les LLMs ou les modèles multimodaux déterminent la meilleure action à prendre en se basant sur l'interprétation des données and l'objectif global, en choisissant parmi les outils disponibles.
3. Action: L'agent exécute l'action choisie, comme appeler une API externe ou un serveur MCP, en suivant des garde-fous prédéfinis.
4. Feedback (Observation): Le résultat de l'action est retourné au système pour informer la prochaine étape de raisonnement ou planifier un ajustement.
Les humains peuvent prendre part à n'importe quelle étape pour guider ou approuver ("human-in-the-loop"). Les agents sont conçus pour exister sur un spectre d'autonomie, allant des 3simples appels LLM au sein de flux de travail codés par l'homme à des systèmes hautement autonomes qui choisissent dynamiquement leurs actions. [4]
L'IA agentique offre divers avantages mais introduit également des risques importants que les entreprises doivent prévenir. Voici une liste de cas d'usage réussis:
Cependant, l'IA a aussi ses cas d'échec marquants. Dans un cas très médiatisé en 2024, un chatbot d'Air Canada a fourni des informations erronées sur les politiques tarifaires en cas de deuil. La compagnie aérienne en a été tenue pour responsable, ce qui montre que les entreprises peuvent être responsables des erreurs commises par leurs systèmes d'IA. [23],[24]
Pour le PoC, nous avons utilisé la suite technologique de Noumena, qui met l'accent sur la sécurité de niveau entreprise, le contrôle d'accès granulaire, les traces d'audit et l'orchestration avec permission. Pour mettre cela à l'épreuve, Swisscom et Noumena se sont associés pour un "Proof of Concept" (PoC) visant à explorer l'IA agentique sécurisée dans le traitement des demandes d'indemnisation à l'assurance.
Traditionnellement, les demandes d'indemnisation sont classées, examinées et ajustées. La classification dirige la demande vers le bon département. L'examen évalue l'exhaustivité, la fiabilité et la validité des informations, déterminant ainsi l'éligibilité et l'indemnisation. Les demandes refusées nécessitent des explications claires. Un expert en sinistres propre à chaque département recoupe les examens pour en vérifier la qualité et l'équité.
L'IA peut automatiser la classification et l'examen. Dans ce PoC, un LLM a classé les demandeset a donné accès à des réviseurs LLM spécifiques à chaque département. Pour assurer une supervision humaine, l'expert reste généralement un être humain. Cependant, pour illustrer la souplesse de mise en œuvre des règles, le PoC comprenait une règle permettant auxrecommandations des réviseurs, pour les petits montants, de contourner l'ajustement humain.Le PoC s'est concentré sur l'intégration transparente des services, l'orchestration des interactions entre l'IA et les humains le long de flux de travail traçables, la restriction de l'accès des agents (qu'il s'agisse d'IA ou d'humains) aux données selon le principe de "Need to know", et la mise en œuvre de politiques de délégation transparentes en matière d'IA.
Flux de traitement des demandes d'assurance tel qu'il a été mis en œuvre dans le PoC. Le traitement des réclamations (santé, voiture, ménage) utilisait l'IA pour la classification et l'examen spécifique au département, en s'appuyant sur Claude 3.5 Sonnet via AWS Bedrock. Les experts humains prenaient les décisions finales.
Ce PoC a démontré l'application pratique de l'IA agentique pour l'automatisation de tâches complexes, plus spécifiquement en:
The PoC also validated the effectiveness of Noumena’s technological approach in addressing some key challenges of Agentic AI in the enterprise context:
Dans l'ensemble, le PoC a démontré avec succès le potentiel de l'IA agentique à remodeler les processus d'affaires grâce à des gains d'efficacité. Il a également montré la capacité de la technologie de Noumena à permettre des systèmes d'IA agentique sécurisés et auditables en fournissant des garde-fous d'exécution.
Au-delà des choix technologiques, les projets d'IA agentique doivent suivre une stratégie bien pensée pour garantir leur succès. Une approche stratégique progressive qui intègre l'atténuation des risques est cruciale pour le déploiement de l'IA agentique. Suivez quelques principes directeurs lors de la mise en œuvre de PoC et de déploiements d'IA agentique:
De plus, veillez à suivre une approche de déploiement par étapes:
1. Des déploiements de pilotes et beta contrôlés: Portée limitée, surveillance étroite, dans le but de valider les fonctionnalités de base. Avec une production limitée et une base d'utilisateurs restreinte, tests de l'extensibilité et des performances réelles.
2. Une adoption large: Déploiement plus large, élargissement progressif des responsabilités, intégration formelle dans les processus d'entreprise avec gouvernance.
3. Amélioration et maintenance continues: Mise à jour continue des modèles, examen des performances et adaptation aux nouvelles règles ou données.
La transparence avec les parties prenantes et la promotion de la préparation culturelle sont cruciales tout au long du processus. [25]
L'auditabilité et le contrôle favoriseront l'innovation au lieu de l'étouffer. Les agents dignes de confiance, transparents et contrôlables seront déployés plus largement et avec plus d'importance. "Agenticité pragmatique" signifie construire des agents aussi autonomes que possible encadrés par des garde-fous bien définis, éclairer continuellement leur fonctionnement interne et maintenir une approche d'humains aux commandes. Ce voyage exige de la diligence. Mais en transformant la "boîte noire" de l'IA en une "boîte de verre", nous pouvons exploiter son pouvoir pour un avenir de collaboration efficace entre l'homme et l'IA.
L'IA agentique marque une nouvelle frontière dans l'automatisation et l'intelligence. Pour réaliser ses promesses, les entreprises doivent en ouvrir la boîte noire. Cela permet de rendre les systèmes auditables, compréhensibles et contrôlables par le biais d'une surveillance et de contraintes, comme dans le PoC exploré ci-dessus.
Le pragmatisme est primordial. Les organisations doivent expérimenter avec audace tout en gouvernant de manière responsable. Elles devraient investir dans l'expertise humaine et les outils de transparence. L'IA doit être considérée comme un assistant puissant. Cependant, ses résultats doivent être remis en question et vérifiés, en particulier dans les scénarios à haut risque. Les décideurs politiques et les groupes industriels doivent élaborer des normes et des cadres de vérification. Cela pourrait être similaire à ceux de la finance ou de l'ingénierie de la sécurité, afin de garantir une innovation responsable. [7]
Auteurs:
1. What is Agentic AI? A Practical Guide - K2view, Accessed on May 23rd, 2025, https://www.k2view.com/what-is-agentic-ai/(ouvre une nouvelle fenêtre)
2. Agentic AI: What you need to know about AI agents | CSAIL Alliances, Abgerufen am 23. Mai 2025, https://cap.csail.mit.edu/agentic-ai-what-you-need-know-about-ai-agents(ouvre une nouvelle fenêtre)
3. What is AI? - AI Tools and Resources for Biomedical Research, Abgerufen am 23. Mai 2025, https://laneguides.stanford.edu/AI/what-is-ai(ouvre une nouvelle fenêtre)
4. What on Earth are Agents? Jensen Low, Abgerufen am 23. Mai 2025,
https://www.jensenlwt.com/blog/what-on-earth-are-agents/(ouvre une nouvelle fenêtre)
5. Agents Simplified: What we mean in the context of AI | Weaviate, Abgerufen am 23. Mai 2025, https://weaviate.io/blog/ai-agents(ouvre une nouvelle fenêtre)
6. Reducing LLM Hallucinations: A Developer's Guide
- Zep, Abgerufen am 23. Mai 2025, https://www.getzep.com/ai-agents/reducing-llm-hallucinations(ouvre une nouvelle fenêtre)
7. The AI Act Explorer | EU Artificial Intelligence Act, Abgerufen am 23. Mai 2025, https://artificialintelligenceact.eu/ai-act-explorer/(ouvre une nouvelle fenêtre)
8. Art. 22 GDPR – Automated individual decision-making, including ..., Abgerufen am 23. Mai 2025, https://gdpr-info.eu/art-22-gdpr/(ouvre une nouvelle fenêtre)
9. FINMA Guidance 08/2024 Governance and Risk Management when ..., Abgerufen am 23. Mai 2025, https://www.mll-news.com/finma-guidance-08-2024-governance-and- risk-management-when-using-artificial-intelligence/?lang=en(ouvre une nouvelle fenêtre)
10. Control Plane as a Tool: A Scalable Design Pattern for Agentic AI Systems - arXiv, Abgerufen am 23. Mai 2025, https://arxiv.org/html/2505.06817v1(ouvre une nouvelle fenêtre)
11. Agentic AI: A guide to the next wave of CX innovation - PolyAI, Abgerufen am 23. Mai 2025, https://poly.ai/agentic-ai/(ouvre une nouvelle fenêtre)
12. Understanding AI Agents through the Thought-Action-Observation ..., Abgerufen am 23. Mai 2025, https://huggingface.co/learn/agents-course/unit1/agent-steps-and-structure(ouvre une nouvelle fenêtre)
13. Agentic AI in Insurance: Transforming Insurance with AI, Abgerufen am 23. Mai 2025, https://hexaware.com/blogs/agentic-ai-in-insurance-transforming-the-industry-with- enterprise-ai/(ouvre une nouvelle fenêtre)
14. Agentic AI for Insurance | Real-Time Insights and Outcomes - XenonStack, Abgerufen am 23. Mai 2025, https://www.xenonstack.com/blog/agentic-ai-insurance-claims(ouvre une nouvelle fenêtre)
15. Agentic AI: Automated Claims Processing Multi-Agent System - IDC, Abgerufen am 23. Mai 2025 https://my.idc.com/getdoc.jsp?containerId=US52880425CpageType=PRINTFRIENDLY(ouvre une nouvelle fenêtre)
16. Use Cases for AI Agents C Agentic Automation | Beam AI, Abgerufen am 23. Mai 2025, https://beam.ai/articles(ouvre une nouvelle fenêtre)
17. AI-based predictive maintenance - Siemens Global, Abgerufen am 23. Mai 2025, https://www.siemens.com/global/en/products/automation/topic-areas/industrial- ai/usecases/ai-based-predictive-maintenance.html(ouvre une nouvelle fenêtre)
18. Senseye Predictive Maintenance - Siemens Global,
Abgerufen am 23.
Mai 2025, https://www.siemens.com/global/en/products/services/digital-enterprise- services/analytics-artificial-intelligence-services/senseye-predictive- maintenance.html(ouvre une nouvelle fenêtre)
19. KION Teams with NVIDIA and Accenture to Optimize Supply Chains..., Abgerufen am23. Mai 2025, https://erp.today/kion-teams-with-nvidia-and-accenture-to-optimize- supply-chains-with-ai-powered-robots-and-digital-twins/(ouvre une nouvelle fenêtre)
20. KION presents AI Control Tower at GTC in San José, California - Our current press releases | KION GROUP AG, Abgerufen am 23. Mai 2025, https://www.kiongroup.com/en/News-Stories/Press-Releases/Press-Releases- Detail.html?id=2954666(ouvre une nouvelle fenêtre)
21. UK government's AI system 'Humphrey' set to review thousands of public consultations to improve civil service efficiency, Abgerufen am 23. Mai 2025, https://www.globalgovernmentforum.com/uk-governments-ai-system-humphrey-set- to-review-thousands-of-public-consultations-to-improve-civil-service-efficiency/(ouvre une nouvelle fenêtre)
22. AI experiments see “Humphrey” help townhalls cut costs and ..., Abgerufen am 23. Mai 2025, https://www.gov.uk/government/news/ai-experiments-see-humphrey-help- townhalls-cut-costs-and-improve-services(ouvre une nouvelle fenêtre)
23. BC Tribunal Confirms Companies Remain Liable for Information ..., Abgerufen am 23. Mai 2025, https://www.americanbar.org/groups/business_law/resources/business- law-today/2024-february/bc-tribunal-confirms-companies-remain-liable-information- provided-ai-chatbot/(ouvre une nouvelle fenêtre)
24. Air Canada Held Liable For Chatbot Misinformation - One Mile at a Time, Abgerufen am23. Mai 2025, https://onemileatatime.com/news/air-canada-liable-chatbot- misinformation/(ouvre une nouvelle fenêtre)
25. How COOs maximize operational impact from gen AI and agentic AI ..., Abgerufen am23. Mai 2025, https://www.mckinsey.com/capabilities/operations/our-insights/how- coos-maximize-operational-impact-from-gen-ai-and-agentic-ai(ouvre une nouvelle fenêtre)
26. Microsoft Agent Framework, Abgerufen am 5. Oktober 2025, https://learn.microsoft.com/en-us/agent-framework/overview/agent-framework- overview(ouvre une nouvelle fenêtre)
Senior Consultant Data & AI
Trouve le Job ou l’univers professionnel qui te convient. Où tu veux co-créer et évoluer.
Ce qui nous définit, c’est toi.