menu-mob.png

Tout commence par la qualité des données

 |
July 15 2014

admin-ajax.jpeg

Depuis quelques temps, les conversations dans le monde de la gestion des données se concentrent autour de termes ronflants tels que Big Data, analyse en temps réel ou décisionnel (BI) en libre-service. Cependant, malgré tout ce buzz, les faits sont là : ces outils avancés dépendent des puissants fondamentaux que sont la collecte, le nettoyage et la gouvernance des données. L'enquête menée par Aberdeen Group sur la gestion des données a révélé l’importance majeure d’un facteur : la qualité des données. Sur 122 entreprises ayant fait l'objet de l’étude, celles classées comme « en pointe » (les 20 % les plus performantes) apparaissent comme trois fois plus susceptibles que les autres d'adopter des outils de qualité des données. De plus, ce fait est corrélé par des performances accrues en termes d’analyse des données, d’efficacité des employés et de rapidité et exactitude des décisions métier.

En examinant les entreprises qui ont investi dans l’amélioration de leurs données, l'étude d'Aberdeen montre que les outils de qualité des données procurent de fait des améliorations quantifiables. En outre, il y a un autre avantage : le personnel passe bien moins de temps à rechercher des données et à corriger des erreurs (voir le tableau 1). Les solutions de qualité des données ont permis une hausse moyenne de 15 % du nombre d’enregistrements complets et de 20 % du nombre d'enregistrements exacts et fiables. En revanche, les entreprises dépourvues d'outils de qualité des données ont déclaré deux fois plus d'erreurs significatives dans leurs enregistrements ; 22 % de ces derniers comportaient de telles erreurs.

Tableau 1 : la qualité des données apporte exactitude et efficacité

Métriques de performance

Avec qualité des données

Sans qualité des données

Différence en termes de performances

Pourcentage d'enregistrements
qui sont exacts

85 %

71 %

20 %

Pourcentage d'enregistrements
qui sont complets

86 %

75 %

15 %

Temps passé à rechercher des données
(par employé et par semaine)

3,6 heures

5,4 heures

33 % en moins

Pourcentage d'enregistrements comportant des erreurs significatives

11 %

22 %

Deux fois moins

Temps moyen pour corriger des erreurs significatives

14,5 heures

28,1 heures

94 % en moins

De plus, il ressort de l’étude que le personnel d'entreprises dotées d'outils de qualité des données a plus de chance d’éviter des problèmes d'informations manquantes, d'enregistrements dupliqués ou de non-lecture des fichiers par les applications. En conséquence, il passe 1,8 heure de moins chaque semaine à rechercher les informations nécessaires pour exécuter ses tâches. Cela signifie que l'employé moyen économise quasiment 12 journées de travail complètes sur l'année en accédant rapidement à ces informations. Dans le même ordre d'idée, le personnel passe moins de temps à corriger des erreurs majeures dans les enregistrements auxquels il accède. Des erreurs significatives au sein des données peuvent coûter beaucoup d'argent à une entreprise en termes de ventes manquées, de mauvaises décisions, d’insatisfaction des clients ou de frais de règlement de litiges. Le coût en termes d'heures de travail peut être élevé également. L’entreprise moyenne non dotée d’outils de qualité des données met en effet 28 heures pour dépister le problème, localiser les informations manquantes et corriger un enregistrement, soit presque deux fois plus de temps que l’entreprise possédant de tels outils.

Les outils de qualité des données peuvent ne pas être aussi intéressants que certaines des nouvelles technologies développées autour de la gestion et de l'analyse des données. Cependant, pour de nombreuses entreprises, les données de mauvaise qualité constituent une préoccupation majeure. L'enquête d'Aberdeen Group démontre de manière constante que la qualité des données forme un socle essentiel pour tout programme analytique fructueux. Aberdeen recommande aux entreprises confrontées à des informations imprécises ou cherchant à optimiser leurs solutions décisionnelles ou analytiques de déployer un outil de qualité des données ou d'améliorer les outils basiques de qualité des données avec des fonctionnalités complémentaires.

Peter Krensky est un analyste-chercheur du pôle Analytique et décisionnel (BI) d’Aberdeen Group. Chez Aberdeen, il produit des études informatives pour dévoiler les avantages métier de diverses solutions technologiques. Ses travaux identifient les bonnes pratiques de déploiement technologique pour obtenir des performances optimales. Ses principaux domaines d’étude comprennent l’analytique en temps réel, la visualisation des données, le décisionnel libre-service et le décisionnel cloud/SaaS, ainsi que les applications analytiques par fonction et secteur. Peter possède une licence en histoire avec mention du Amherst College (Amherst, Massachussets).

Auteur : Peter Krensky, analyste-chercheur principal, Aberdeen Group




← Article précédent
Prochain article →