Data Science / Artificial Intelligence
Aprire la “black box” dell’AI agentica
I Large Language Model (LLM) stanno trasformando i processi grazie alle loro capacità di comprensione e generazione del linguaggio naturale.
Data Science / Artificial Intelligence
I Large Language Model (LLM) stanno trasformando i processi grazie alle loro capacità di comprensione e generazione del linguaggio naturale.
Ora, la nuova “AI agentica”, o “agenti AI”, ovvero sistemi progettati per un’autonomia orientata al raggiungimento di obiettivi, promette di affrontare compiti complessi con una supervisione umana minima e di trasformare il modo in cui vengono concepiti software e automazione. [1],[2],[3],[4],[5]
Sebbene l’entusiasmo attorno a un’AI pienamente autonoma sia forte, la realtà è mitigata da limiti tecnici, problemi di qualità dei dati ed esigenze di conformità. La tensione centrale consiste nel bilanciare il valore dell’autonomia—delegando compiti complessi e ottenendo risultati su larga scala—con i rischi intrinseci di un processo decisionale “black box”. La natura probabilistica degli LLM implica che gli output possano essere imprevedibili o errati, rendendo necessarie robuste misure di controllo (guardrail). [6]
Sicurezza, privacy e quadri normativi come revDSG, GDPR e l’EU AI Act richiedono inoltre supervisione umana e tracciabilità, soprattutto nei settori critici. [7],[8],[9] Il vero valore dell’AI agentica, quindi, emerge quando è ancorata a flussi di lavoro controllati e alla supervisione umana. Abbiamo esplorato promesse e sfide dell’AI agentica in un Proof of Concept (PoC) che ha coinvolto un team congiunto di Swisscom Data & AI Consulting e ingegneri di Noumena Digital(apre una nuova finestra).
I sistemi di AI agentica rappresentano un passaggio da modelli di AI reattivi a sistemi proattivi, capaci di flussi di lavoro multi-step e di prendere decisioni per raggiungere obiettivi. Questi programmi autonomi basati su LLM percepiscono il loro ambiente, pianificano, invocanostrumenti ad es. tramite API e server Model Context Protocol (MCP), e interagiscono concontesti digitali e con altri agenti, utilizzando ad es. implementazioni Agent-to-Agent (A2A). [10]
L’AI agentica opera secondo un ciclo iterativo continuo, descritto come un loop Percezione–Ragionamento–Azione–Feedback o, in modo analogo, un ciclo Pensiero–Azione–Osservazione: [1],[10],[11],[12],[26]
1. Percezione (Osservazione): il sistema acquisisce e interpreta dati eterogenei, strutturati (database, API) e non strutturati (immagini, e-mail).
2. Ragionamento (Pensiero): gli LLM o i modelli multimodali determinano la migliore azione successiva sulla base dei dati interpretati e dell’obiettivo complessivo, selezionando tra gli strumenti disponibili.
3. Azione: l’agente esegue l’azione scelta, ad esempio chiamando un’API esterna o un server MCP, nel rispetto di guardrail predefiniti.
4. Feedback (Osservazione): l’esito dell’azione viene restituito al sistema, informando il successivo passaggio di ragionamento o un adeguamento del piano.
Gli esseri umani possono essere integrati in qualsiasi fase per fornire guida o approvazione (“human-in-the-loop”). Gli agenti sono concepiti come collocati lungo uno spettro diautonomia: da singole chiamate a un LLM all’interno di flussi di lavoro codificati da esseri umani fino a sistemi altamente autonomi che scelgono dinamicamente le proprie azioni. [4]
L’AI agentica offre diversi benefici, ma introduce anche rischi significativi che le aziende devono prevenire. Di seguito, una lista di casi d’uso di successo:
Tuttavia, l’AI presenta anche casi di fallimento rilevanti. In un caso molto pubblicizzato nel 2024, un chatbot di Air Canada ha fornito informazioni errate sulle politiche tariffarie per il lutto. La compagnia è stata ritenuta responsabile, a dimostrazione del fatto che le imprese possono essere chiamate a rispondere degli errori commessi dai loro sistemi di AI. [23],[24]
Per il PoC abbiamo utilizzato lo stack tecnologico di Noumena, che enfatizza sicurezza di livello enterprise, controllo degli accessi granulare, audit trail e orchestrazione con permessi. Per metterlo alla prova, Swisscom e Noumena hanno collaborato in un progetto proof-of-concept (PoC) per esplorare un’AI agentica sicura nell’elaborazione dei sinistri assicurativi.
Tradizionalmente, i sinistri vengono classificati, revisionati e poi “aggiustati” (adjusted). La classificazione indirizza la richiesta al reparto corretto. La revisione valuta completezza, affidabilità e validità delle informazioni, determinando ammissibilità e indennizzo. I sinistri negati richiedono spiegazioni chiare. Un perito/adjustor specifico del reparto ricontrolla le revisioni per qualità ed equità.
L’AI può automatizzare classificazione e revisione. In questo PoC, un LLM ha classificato i sinistri e ha fornito accesso a revisori LLM specifici per reparto. Per garantire supervisione umana, l’adjustor rimane in genere una persona. Tuttavia, per illustrare l’implementazione flessibile delle policy, il PoC includeva una regola che consentiva alle raccomandazioni delrevisore, per importi ridotti, di bypassare l’aggiustamento umano. Il PoC si è concentrato su: integrare i servizi in modo fluido, orchestrare interazioni tra AI e umani lungo workflowtracciabili, limitare l’accesso ai dati (che l’agente sia AI o umano) secondo il principio del “need-to-know”, e implementare policy trasparenti di delega all’AI.
Flusso di elaborazione dei sinistri assicurativi come implementato nel PoC. L’elaborazione dei sinistri (salute, auto, casa) ha utilizzato l’AI per la classificazione e la revisione specifica per reparto, sfruttando Claude Sonnet tramite AWS Bedrock. Gli adjustor umani hanno gestito le decisioni finali.
Questo PoC ha dimostrato l’applicazione pratica dell’AI agentica nell’automazione di compiti complessi, in particolare in:
Il PoC ha inoltre validato l’efficacia dell’approccio tecnologico di Noumena nell’affrontare alcune sfide chiave dell’AI agentica in ambito enterprise:
Nel complesso, il PoC ha mostrato con successo il potenziale dell’AI agentica nel rimodellare i processi aziendali grazie a guadagni di efficienza. Ha inoltre dimostrato la capacità dellatecnologia di Noumena di abilitare sistemi di AI agentica sicuri e auditabili, fornendo guardrail di esecuzione.
Oltre alle scelte tecnologiche, i progetti di AI agentica devono seguire una strategia ben ponderata per garantire il successo. Un approccio strategico e graduale, che integri lamitigazione dei rischi, è cruciale per il deployment dell’AI agentica. Alcuni principi guida per implementare PoC e rilasci di AI agentica:
Inoltre, è importante seguire un approccio di rollout per fasi:
1. Pilot controllato e deployment beta: ambito limitato, forte supervisione, conl’obiettivo di validare le funzionalità core. Con una produzione limitata e una base utenti ristretta, testare scalabilità e performance nel mondo reale.
2. Adozione ampia: rollout più esteso, espansione incrementale delle responsabilità, integrazione formale nei processi di business con adeguata governance.
3. Miglioramento e manutenzione continui: aggiornamenti costanti dei modelli, revisioni delle performance e adattamento a nuove regole o nuovi dati.
Trasparenza verso gli stakeholder e sviluppo della prontezza culturale sono cruciali lungo tutto il percorso. [25]
L’AI agentica segna una nuova frontiera dell’automazione e dell’intelligenza. Per realizzarne la promessa, le aziende devono “aprire” la black box. Questo rende i sistemi auditabili,comprensibili e controllabili tramite supervisione e vincoli, come esplorato nel PoC descritto sopra.
Il pragmatismo è fondamentale. Le organizzazioni dovrebbero sperimentare con coraggio ma governare in modo responsabile. Dovrebbero investire in competenze umane e in strumenti di trasparenza. L’AI va considerata un assistente potente; tuttavia, i suoi output dovrebberoessere messi in discussione e verificati, soprattutto in scenari ad alto rischio. Decisori politici e gruppi industriali devono sviluppare standard e framework di audit. Questi potrebbero essere simili a quelli della finanza o dell’ingegneria della sicurezza, per garantire un’innovazioneresponsabile. [7]
Auditabilità e controllo abiliteranno l’innovazione, anziché soffocarla. Agenti affidabili, trasparenti e controllabili verranno adottati in modo più ampio e con maggiore ambizione. Per “agency pragmatica” si intende costruire agenti il più autonomi possibile all’interno di guardrail ben compresi, illuminandone continuamente il funzionamento interno e mantenendo unapproccio human-in-command. Questo percorso richiede rigore. Ma trasformando la “black box” dell’AI in una “glass box”, possiamo sfruttarne la potenza per un futuro di collaborazione uomo–AI efficace.
Autori:
1. What is Agentic AI? A Practical Guide - K2view, Abgerufen am 23. Mai 2025, https://www.k2view.com/what-is-agentic-ai/(apre una nuova finestra)
2. Agentic AI: What you need to know about AI agents | CSAIL Alliances, Abgerufen am 23. Mai 2025, https://cap.csail.mit.edu/agentic-ai-what-you-need-know-about-ai-agents(apre una nuova finestra)
3. What is AI? - AI Tools and Resources for Biomedical Research, Abgerufen am 23. Mai 2025, https://laneguides.stanford.edu/AI/what-is-ai(apre una nuova finestra)
4. What on Earth are Agents? Jensen Low, Abgerufen am 23. Mai 2025,
https://www.jensenlwt.com/blog/what-on-earth-are-agents/(apre una nuova finestra)
5. Agents Simplified: What we mean in the context of AI | Weaviate, Abgerufen am 23. Mai 2025, https://weaviate.io/blog/ai-agents(apre una nuova finestra)
6. Reducing LLM Hallucinations: A Developer's Guide
- Zep, Abgerufen am 23. Mai 2025, https://www.getzep.com/ai-agents/reducing-llm-hallucinations(apre una nuova finestra)
7. The AI Act Explorer | EU Artificial Intelligence Act, Abgerufen am 23. Mai 2025, https://artificialintelligenceact.eu/ai-act-explorer/(apre una nuova finestra)
8. Art. 22 GDPR – Automated individual decision-making, including ..., Abgerufen am 23. Mai 2025, https://gdpr-info.eu/art-22-gdpr/(apre una nuova finestra)
9. FINMA Guidance 08/2024 Governance and Risk Management when ..., Abgerufen am 23. Mai 2025, https://www.mll-news.com/finma-guidance-08-2024-governance-and- risk-management-when-using-artificial-intelligence/?lang=en(apre una nuova finestra)
10. Control Plane as a Tool: A Scalable Design Pattern for Agentic AI Systems - arXiv, Abgerufen am 23. Mai 2025, https://arxiv.org/html/2505.06817v1(apre una nuova finestra)
11. Agentic AI: A guide to the next wave of CX innovation - PolyAI, Abgerufen am 23. Mai 2025, https://poly.ai/agentic-ai/(apre una nuova finestra)
12. Understanding AI Agents through the Thought-Action-Observation ..., Abgerufen am 23. Mai 2025, https://huggingface.co/learn/agents-course/unit1/agent-steps-and-structure(apre una nuova finestra)
13. Agentic AI in Insurance: Transforming Insurance with AI, Abgerufen am 23. Mai 2025, https://hexaware.com/blogs/agentic-ai-in-insurance-transforming-the-industry-with- enterprise-ai/(apre una nuova finestra)
14. Agentic AI for Insurance | Real-Time Insights and Outcomes - XenonStack, Abgerufen am 23. Mai 2025, https://www.xenonstack.com/blog/agentic-ai-insurance-claims(apre una nuova finestra)
15. Agentic AI: Automated Claims Processing Multi-Agent System - IDC, Abgerufen am 23. Mai 2025 https://my.idc.com/getdoc.jsp?containerId=US52880425CpageType=PRINTFRIENDLY(apre una nuova finestra)
16. Use Cases for AI Agents C Agentic Automation | Beam AI, Abgerufen am 23. Mai 2025, https://beam.ai/articles(apre una nuova finestra)
17. AI-based predictive maintenance - Siemens Global, Abgerufen am 23. Mai 2025, https://www.siemens.com/global/en/products/automation/topic-areas/industrial- ai/usecases/ai-based-predictive-maintenance.html(apre una nuova finestra)
18. Senseye Predictive Maintenance - Siemens Global,
Abgerufen am 23.
Mai 2025, https://www.siemens.com/global/en/products/services/digital-enterprise- services/analytics-artificial-intelligence-services/senseye-predictive- maintenance.html(apre una nuova finestra)
19. KION Teams with NVIDIA and Accenture to Optimize Supply Chains..., Abgerufen am23. Mai 2025, https://erp.today/kion-teams-with-nvidia-and-accenture-to-optimize- supply-chains-with-ai-powered-robots-and-digital-twins/(apre una nuova finestra)
20. KION presents AI Control Tower at GTC in San José, California - Our current press releases | KION GROUP AG, Abgerufen am 23. Mai 2025, https://www.kiongroup.com/en/News-Stories/Press-Releases/Press-Releases- Detail.html?id=2954666(apre una nuova finestra)
21. UK government's AI system 'Humphrey' set to review thousands of public consultations to improve civil service efficiency, Abgerufen am 23. Mai 2025, https://www.globalgovernmentforum.com/uk-governments-ai-system-humphrey-set- to-review-thousands-of-public-consultations-to-improve-civil-service-efficiency/(apre una nuova finestra)
22. AI experiments see “Humphrey” help townhalls cut costs and ..., Abgerufen am 23. Mai 2025, https://www.gov.uk/government/news/ai-experiments-see-humphrey-help- townhalls-cut-costs-and-improve-services(apre una nuova finestra)
23. BC Tribunal Confirms Companies Remain Liable for Information ..., Abgerufen am 23. Mai 2025, https://www.americanbar.org/groups/business_law/resources/business- law-today/2024-february/bc-tribunal-confirms-companies-remain-liable-information- provided-ai-chatbot/(apre una nuova finestra)
24. Air Canada Held Liable For Chatbot Misinformation - One Mile at a Time, Abgerufen am23. Mai 2025, https://onemileatatime.com/news/air-canada-liable-chatbot- misinformation/(apre una nuova finestra)
25. How COOs maximize operational impact from gen AI and agentic AI ..., Abgerufen am23. Mai 2025, https://www.mckinsey.com/capabilities/operations/our-insights/how- coos-maximize-operational-impact-from-gen-ai-and-agentic-ai(apre una nuova finestra)
26. Microsoft Agent Framework, Abgerufen am 5. Oktober 2025, https://learn.microsoft.com/en-us/agent-framework/overview/agent-framework- overview(apre una nuova finestra)
Senior Consultant Data & AI
Trova il posto di lavoro o il percorso di carriera che fa per te. Dove dare il tuo contributo e crescere professionalmente.
Ciò che tu fai, è ciò che siamo.