Comment les entreprises disposant de meilleures données profitent de l’analyse
6 min

Entreprises: des données fiables garantes d’analyses de meilleure qualité

Des données de haute qualité constituent la base de meilleures décisions au sein de l’entreprise. Mais il faut avoir confiance en celles-ci pour en tirer une valeur ajoutée et donc bénéficier d’un avantage concurrentiel. Pour ce faire, rien de tel qu’une stratégie globale en matière de données, combinée à une plateforme d’analyse centrale.

Souvent, seule une petite partie des gros volumes de données générés par les entreprises peut être exploitée de manière rentable. Certains ensembles de données se trouvent dans des systèmes fragmentés et ne sont donc pas disponibles. D’autres n’ont pas la forme structurée requise, ou leur qualité est douteuse. Si la qualité, la disponibilité ou l’exhaustivité des données sont insuffisantes, rien ne garantit à l’entreprise d’obtenir des résultats d’analyse optimaux. Cela nécessite également d’adapter les processus au nouveau système, voire de les replanifier complètement.

Atelier ReThink

Le workshop ReThink vous permet de déterminer votre degré de maturité numérique et de planifier votre transition numérique.

La plateforme de données centrale, gage de valeur ajoutée

Les entreprises doivent développer une stratégie de données leur permettant d’exploiter la valeur ajoutée de leurs données. «D’après notre expérience, de nombreuses entreprises de différents secteurs détiennent différents silos de données à partir desquels elles réalisent des évaluations individuelles. Il arrive que les résultats des analyses soient contradictoires ou lacunaires. Les entreprises sont loin d’exploiter le plein potentiel de leurs données», explique Ioannis Theocharis, Data & AI Consultant chez Swisscom. Seules des données fiables permettent d’obtenir des résultats dignes de confiance.

Dans l’idéal, toutes les données pertinentes de l’entreprise provenant de différentes sources sont regroupées dans le cloud, consolidées et mises à disposition pour être analysées. L’objectif: permettre la prise de décisions pertinentes pour l’entreprise. Pour ce faire, les données doivent être saisies et classifiées, structurées et homogénéisées de manière transparente. «Toute cette charge de travail peut dissuader les entreprises de fusionner leurs données sur une plateforme d’analyse centrale», raconte Dave Schadock, Teamleader Data & AI Consulting chez Swisscom. Lors du lancement d’une nouvelle plateforme de données, par exemple sous la forme d’une migration vers le cloud, qui implique également le remplacement de l’architecture et de la structure de données actuelles, celle-ci bénéficiera dans un premier temps des mêmes fonctionnalités que l’ancien système pour l’activité de l’entreprise. C’est pourquoi les deux experts des données constatent régulièrement que, du côté des clients, l’utilité est mise en doute: quel est l’intérêt d’un tel remaniement? «On ne change pas un système qui fonctionne», entend-on parfois.

Identifier la valeur ajoutée et lever les réticences

Pour dissiper les doutes, il est important de communiquer autour du potentiel qu’offre une nouvelle plateforme. «Le retour sur investissement suivra inévitablement avec l’utilisation intensive de la plateforme. Les nombreuses nouvelles possibilités qu’elles permettent d’exploiter s’avèrent payantes à long terme», poursuit M. Schadock. Il évoque divers projets clients couronnés de succès, citant par exemple Geobrugg AG, qui a constaté une hausse de 15 % de l’efficacité et de la qualité. En outre, finie la gestion manuelle fastidieuse de la très vaste collection de fichiers Excel.

«Cela vaut généralement la peine de commencer par migrer l’essentiel, notamment les processus de l’activité principale.»

Dave Schadock, Teamleader Data & AI Consulting chez Swisscom

Différentes méthodes permettent d’aboutir à une plateforme d’analyse dans le cloud. Afin d’éviter d’avoir à effectuer cette transformation, qui peut s’avérer fastidieuse et complexe, une nouvelle solution peut être mise en œuvre étape par étape avec la stratégie de données adaptée. «Cela vaut généralement la peine de commencer par migrer l’essentiel, notamment les processus de l’activité principale, et d’implémenter de nouveaux cas d’utilisation sur la plateforme afin de conserver d’autres applications en parallèle dans l’ancien système, pour les transférer ensuite vers la nouvelle architecture», explique Ioannis Theocharis. Cette approche pragmatique permet de mettre en œuvre successivement de nouvelles fonctionnalités et possibilités, tout en continuant à travailler avec les anciens systèmes. Les ruptures de médias, telles qu’elles se produisent dans différents systèmes décentralisés, seront progressivement réduites au fur et à mesure du passage à la plateforme de données centrale.

Aller plus loin grâce à l’IA

Si des données issues des systèmes de gestion propres à l’entreprise sont associées à une plateforme d’analyse, la fiabilité est généralement assurée. «Dans le cas de données agrégées provenant de différentes sources et approuvées par le domaine spécialisé, il est possible de les doter d’un label de qualité», déclare Dave Schadock. Ainsi, les sources et les processus qui les sous-tendent peuvent être considérés comme transparents et fiables. En revanche, si des sources de données externes qui ne peuvent pas être entièrement contrôlées sont utilisées via des API (réseaux sociaux, e-mails, données météorologiques, etc.), une vérification minutieuse des données est indispensable.

Il en va de même lorsque l’on utilise des modèles d’IA externes dont les données d’entraînement proviennent de sources inconnues. «Il faut utiliser les modèles d’IA de manière contrôlée et faire interpréter les résultats par des experts», précise Dave Schadock. L’exactitude des résultats de l’IA est encore surestimée par de nombreux utilisateurs. Par exemple, il est encore nécessaire de vérifier ceux fournis par ChatGPT ou d’autres applications utilisant des grands modèles de langage (LLM), du moins aujourd’hui. «Ce ne sont que des copilotes qui requièrent un certain contrôle, et en aucun cas des pilotes automatiques que l’on peut faire travailler en toute autonomie. Il faut toujours réfléchir et interpréter les résultats pour les situer dans le contexte global de l’entreprise.»

La qualité du résultat dépend des données elles-mêmes, explique Ioannis Theocharis. Un contrôle de qualité final ou un label de qualité adapté sont indispensables. En fin de compte, il existe toujours un risque que les analyses reposent sur des données insuffisantes ou incomplètes, ce qui fausse les résultats. «Certains clients rêvent d’une technologie capable de traiter des données inutilisables et d’en améliorer la qualité sur simple pression d’un bouton, c’est-à-dire de transformer des données inutiles en données fiables.» Malheureusement, le chemin est encore long; une sélection minutieuse et un traitement professionnel des données restent nécessaires pour permettre des analyses fiables sur une base de données de qualité.

Atelier ReThink

Let’s ReThink – Transformation signifie confiance. Dans la numérisation, dans les collaborateurs et dans la propre gestion. Lors de l’atelier ReThink avec nos expert(e)s, apprenez-en davantage sur votre maturité numérique et sur le potentiel que recèle votre entreprise. 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lisez maintenant