Come le aziende traggono vantaggio dalle analisi grazie a dati migliori
5 min

Come le aziende traggono vantaggio da analisi migliori grazie a dati affidabili

Dati di elevata qualità costituiscono il punto di partenza per decisioni migliori all’interno dell’azienda. Serve tuttavia fiducia nei dati in modo da poterne ricavare un valore aggiunto e quindi un vantaggio competitivo. Una strategia dei dati globale e una piattaforma centrale di analisi sono due elementi imprescindibili in tal senso.

Spesso si riesce a usare in modo proficuo solo una piccola parte dei grandi volumi di dati di cui dispongono le aziende. Alcuni record di dati si trovano su sistemi frammentati e pertanto non sono disponibili. Altri non possiedono la forma strutturata necessaria o la loro qualità è dubbia. Se la qualità, la disponibilità o la completezza dei dati sono insoddisfacenti, un’impresa non può confidare nel fatto che forniscano risultati di analisi ottimali. Ciò richiede anche l’adeguamento dei processi al nuovo sistema o una loro riprogettazione integrale.

Workshop ReThink

Con il workshop ReThink siete voi a stabilire il grado di maturità digitale e a pianificare il vostro viaggio digitale.

Valore aggiunto grazie a una piattaforma dati centrale

Le imprese devono formulare una strategia in materia di dati che consenta loro di sfruttare il valore aggiunto dei loro dati. «Secondo la nostra esperienza, in svariati reparti di molte aziende ci sono diversi silo di dati, dai quali si ricavano singole valutazioni. A volte i risultati di tali analisi possono contraddirsi o essere incompleti. Le aziende sono ben lungi dallo sfruttare appieno il potenziale dei loro dati», afferma Ioannis Theocharis, Data & AI Consultant presso Swisscom. Solo da dati attendibili si ottengono risultati affidabili.

L’ideale sarebbe raccogliere nel cloud tutti i dati rilevanti a livello aziendale provenienti da varie fonti, consolidarli e metterli a disposizione per le analisi, in modo da poter prendere decisioni significative per l’attività. A tal fine, i dati devono essere registrati e classificati in modo trasparente, inoltre devono essere strutturati e omogeneizzati. «Questi sforzi potrebbero scoraggiare le aziende dal raccogliere i dati su una piattaforma di analisi centrale», afferma Dave Schadock, Team leader Data & AI Consulting presso Swisscom. Quando si introduce una nuova piattaforma dati, ad esempio sotto forma di una migrazione su cloud, che comporta anche la sostituzione dell’architettura e della struttura dati precedenti, in un primo momento per l’azienda questa novità ha le stesse funzionalità del vecchio sistema. Per questo motivo, i due esperti di dati constatano spesso che la clientela nutre dubbi circa l’utilità di questa soluzione: perché questo grande cambiamento? «Sistema che funziona non si cambia», si sente dire di tanto in tanto.

Riconoscere il valore aggiunto e superare le barriere

Per fugare i dubbi, è necessario far comprendere il potenziale offerto da una nuova piattaforma. «Con un utilizzo intenso della piattaforma, il ritorno sull’investimento è inevitabile. Le tante nuove opportunità che si possono sfruttare, danno i loro frutti nel lungo termine», continua Schadock. Fa riferimento a diversi progetti di successo realizzati dai clienti. Ad esempio, la Geobrugg AG è riuscita a ottenere un incremento del 15% in termini di efficienza e qualità. Inoltre, è venuta meno la dispendiosa gestione manuale dell’ampia raccolta di documenti Excel.

«Spesso conviene migrare prima gli elementi più importanti, ad esempio i processi per le attività strategiche.»

Dave Schadock, Team leader Data & AI Consulting presso Swisscom

Sono diversi i modi che portano a una piattaforma di analisi in cloud. Per evitare di dover attuare in una volta questa trasformazione, che può essere dispendiosa e complessa, è possibile realizzare gradualmente una nuova soluzione con la relativa strategia dei dati. «Spesso conviene migrare prima gli elementi più importanti, ad esempio i processi per le attività strategiche, e implementare nuovi casi d’uso sulla piattaforma per lasciare parallelamente altre applicazioni nel vecchio sistema e trasferirle in un secondo momento nella nuova architettura», spiega Ioannis Theocharis. Questa procedura pragmatica consente di implementare in successione nuove funzioni e possibilità, in modo da poter continuare a lavorare con i vecchi sistemi. Il passaggio progressivo alla piattaforma dati centrale si traduce anche nell’incessante eliminazione delle interruzioni del flusso di informazioni, che si verificano in diversi sistemi distribuiti.

Qualche riflessione sull’intelligenza artificiale

Se per una piattaforma di analisi si utilizzano dati forniti da sistemi propri, nella maggior parte dei casi l’affidabilità è garantita. «Nel caso di dati aggregati provenienti da fonti diverse e rilevati dal settore specializzato, è possibile assegnare loro un sigillo di qualità», spiega Dave Schadock. In tal modo, le fonti e i processi che ne sono alla base possono essere classificati come trasparenti e affidabili. Se invece tramite API si ricorre a fonti di dati esterne che non possono essere completamente controllate, ad esempio social media, e-mail, dati meteo, eccetera, è indispensabile sottoporre tali dati a una revisione approfondita.

Lo stesso vale se si utilizzano modelli di IA esterni i cui dati di riferimento provengono da fonti sconosciute. «I modelli di intelligenza artificiale dovrebbero essere usati in modo controllato e i risultati dovrebbero essere interpretati con competenza», afferma Dave Schadock. La correttezza dei risultati dell’intelligenza artificiale continua a essere sopravvalutata da molti utenti. Ad esempio, ChatGPT o altre applicazioni basate su Large Language Model (LLM, modelli linguistici di grandi dimensioni) necessitano ancora, almeno oggi, di una revisione. «Sono solo copiloti che richiedono un certo controllo, e non autopiloti da far lavorare in piena autonomia. Bisogna sempre riflettere, interpretare i risultati e collocarli nel contesto generale dell’azienda.»

Secondo Ioannis Theocharis, la qualità del risultato non può che essere pari a quella dei dati stessi. Un controllo di qualità finale o un relativo sigillo di qualità sono indispensabili. In fin dei conti, c’è sempre il rischio che le analisi si basino su dati insufficienti o incompleti che falsano i risultati. «Alcuni clienti vorrebbero una tecnologia capace di elaborare dati inutilizzabili premendo semplicemente un pulsante e di migliorarne la qualità, trasformando dati spazzatura in dati affidabili.» Purtroppo, però, la situazione è ben lungi dall’essere tale e continueranno a servire una scelta selettiva nonché un’elaborazione professionale dei dati per consentire analisi affidabili partendo da una buona base di dati.

Workshop ReThink

Let’s ReThink: la trasformazione è sinonimo di fiducia, nella digitalizzazione, nel personale e nella propria leadership. Nel workshop ReThink con i nostri esperti e le nostre esperte potrete scoprire di più sulla vostra maturità digitale e sul potenziale della vostra azienda. 

Lascia un commento

Il suo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati.*

Leggete ora