BLOG

Pourquoi votre projet IT a besoin d’une méthode Data Quality by Design

 

Imaginons une entreprise ambitieuse qui décide de lancer un nouvel outil de reporting pour améliorer la traçabilité des produits sur l’ensemble de la value chain. Le projet démarre avec enthousiasme : les équipes IT développent l’application, les métiers définissent leurs besoins, et tout semble prêt pour une mise en production réussie. Cependant, dès les premières semaines d’utilisation, l’équipe métier réalise que les rapports générés par le nouvel outil sont incohérents. Les informations sur la traçabilité des produits sont tantôt erronées, tantôt incomplètes sans explication logique. Après enquête, les développeurs découvrent que la base de données est remplie d’erreurs : doublons, valeurs manquantes, incohérences entre les systèmes. L’outil, pourtant techniquement performant, devient inutilisable. 

Cette histoire, malheureusement courante, illustre à quel point la Data Quality est un facteur clé de réussite des projets IT. À travers cette expérience, nous verrons comment l’intégration de la qualité des données dès la conception aurait pu éviter cet échec et comment une approche structurée permet d’assurer des projets IT performants et pérennes.

 

Un projet bloqué par des données erronées 

Dès les premières semaines d’utilisation, l’équipe métier réalise que les rapports générés par le nouvel outil sont incohérents. Les informations sur la traçabilité des produits sont tantôt erronées, tantôt incomplètes sans explication logique. Après enquête, les développeurs découvrent que la base de données est remplie d’erreurs : doublons, valeurs manquantes, incohérences entre les systèmes. L’outil, pourtant techniquement performant, devient inutilisable. 

Face aux incohérences, les équipes de développement passent des semaines à corriger manuellement les erreurs, sans garantie que le problème ne réapparaisse pas. À la suite de décisions biaisées à cause de données qui ne reflétaient pas la réalité, les métiers perdent confiance dans l’outil et finissent par l’abandonner. 

Après un audit par l’équipe juridique du logiciel, notamment sur le respect de la RGPD, il a été remonté que les clients n’étaient pas anonymisés et que des données personnelles étaient en accès libre. Une amende a été évitée de justesse. Si une règle de qualité avait été implémentée, ce risque n’aurait pas eu lieu. 

 

Intégrer la qualité des données dès la conception 

Plutôt que de s’apercevoir trop tard de ces erreurs, il aurait fallu intégrer la data quality dès le début du projet en tant que prérequis. Une approche « Data Quality by Design » permet d’anticiper et de structurer la gestion de la qualité des données dès la conception. Elle repose sur plusieurs piliers essentiels : 

 

Identifier les acteurs clés 

  • Data Owner (DO) : Définit les règles de qualité sur son périmètre et participe activement à la remédiation des données.
  • Data Manager (DM) : Possède une vision d’ensemble et facilite la collaboration entre les différentes parties prenantes. 
  • Product Owner (PO) (optionnel) : Si les données sont considérées comme un produit, il assure une cohérence entre les projets en cours et futurs. 
  • Data Quality Manager (DQM) : Pilote la mise en place des règles et des contrôles de qualité, assure le suivi de la remédiation et peut développer des outils de suivi. 

 

Identifier les données critiques 

Recenser les données essentielles au bon fonctionnement du projet IT et définir leur impact sur les processus métiers. Il est recommandé de partir des gestes métier afin d’identifier les données réellement utiles et pertinentes. 

 

Définir des règles de qualité 

Les règles de qualité doivent être définies conjointement par le Data Owner, les équipes métiers qui utilisent la donnée et le Data Quality Manager. 

Il existe plusieurs types de règles techniques permettant de vérifier si les données respectent les normes établies. Voici quelques exemples : 

  • L’exactitude : Vérifier que les données sont correctes et précises. 
  • La cohérence : Assurer que les informations sont alignées entre les différentes bases. 
  • La complétude : Éviter les valeurs manquantes qui rendent l’analyse inutilisable. 
  • La conformité : S’assurer que les données respectent les normes et réglementations en vigueur. 

En complément, des règles fonctionnelles sont définies en fonction des besoins métiers et nécessitent souvent plusieurs champs de données. Par exemple, il ne faut pas mettre en vente un produit dont la date de péremption est dépassée. 

 

Mise en place d’un dashboard de suivi 

Le tableau de bord doit offrir plusieurs niveaux de lecture, adaptés aux différents profils d’utilisateurs. Une vue globale permet d’avoir une vision d’ensemble des sujets. Une vue métier, segmentée par projet ou geste métier, aide les responsables à se concentrer uniquement sur les données qui les concernent. Enfin, une vue dédiée aux erreurs permet d’identifier les différents types d’anomalies présentes dans les bases, facilitant ainsi leur correction et la mise en place d’actions préventives.  

 

La remédiation et l’amélioration continue 

Le but de cette étape et de trouver la source du problème afin qu’elle ne se reproduise plus. 

  • Identifier les équipes opérationnelles responsables de la correction des erreurs.
  • Définir les résultats attendus pour orienter la correction.
  • Élaborer un plan d’action avec des échéances précises. 
  • Mettre en place des rituels de suivi pour s’assurer de l’avancement. 
  • Contrôler les résultats afin d’éviter que les erreurs ne se reproduisent. 

 

L’importance d’un accompagnement expert 

Ce projet a montré que la gestion des données ne peut pas être laissée au hasard. En s’entourant d’un expert data, l’entreprise aurait pu éviter ces erreurs dès le départ. 

Prenons l’exemple d’une équipe chargée d’exposer une table de données agrégée, issue de plusieurs sources. Son objectif est d’assurer une qualité optimale de cette table et, pour ce faire, elle décide d’y appliquer des contrôles de qualité en aval. Un Data Quality Manager (DQM) est alors assigné au projet, avec pour mission de déployer une « tour de contrôle » sur cette table finale. 

Cependant, cette approche n’est pas la plus efficace. Plutôt que d’effectuer les contrôles en bout de chaîne, il aurait été préférable d’implémenter des vérifications directement au niveau des sources de données. En assurant une qualité optimale dès l’amont, les erreurs auraient pu être corrigées avant d’être propagées, réduisant ainsi les risques d’incohérence et les coûts liés à la remédiation. Cette méthode permet également d’éviter les problèmes liés aux transferts inter-systèmes, garantissant ainsi une meilleure fiabilité des données exploitées. 

 

 

L’histoire de ce projet illustre à quel point la qualité des données est essentielle au succès des initiatives IT. Un projet peut être techniquement bien conçu, mais s’il repose sur des données erronées, il devient inutilisable. En intégrant la qualité des données dès la conception et en s’appuyant sur les bonnes pratiques, les entreprises peuvent éviter les blocages et maximiser la valeur de leurs projets. 

Les experts Cenisis conseillent et accompagnent les entreprises à développer leur stratégie data grâce à un usage éclairé, maitrisé et outillé de leur patrimoine de données. Nos consultants vous accompagnent sur les enjeux Data d’aujourd’hui et de demain. Cenisis anticipe et accentue les perpétuelles évolutions des marchés, des technologies, ainsi que les nouvelles aspirations des citoyens et collaborateurs. Découvrez dès à présent notre approche.