Rechercher
Fermer ce champ de recherche.

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

Table des matières
Partager :
Découvrez la Data Platform Phoenix
4 étapes de la mise en qualité des données

La mise en qualité des données, une évidence et un impératif

Tous les processus d’entreprise reposent aujourd’hui sur la donnée, de même que les analyses et le pilotage des projets. Les stratégies data-driven deviennent la norme, faisant dès lors de la mise en qualité des données un sujet central.

Si ce sujet pourtant évident reste en suspens pour bon nombre d’entreprises, c’est que les enjeux de la qualité des données ne sont pas toujours mesurés à leur juste valeur, et que l’organisation à mettre en place et les priorités soulèvent de nombreuses questions.

La qualité des données impacte chaque maillon de la chaîne d’information. Surcoûts inutiles, déperdition d’efforts, mauvaises prises de décision… les conséquences sont importantes sur :

  • Les processus et leur exécution : les fausser, c’est dégrader la qualité du produit ou du service final, c’est aussi perdre en efficacité et engendrer des erreurs qui peuvent être critiques si le processus est sensible.
  • La relation client : dans les échanges avec le service après-vente ou tout autre opération liée à la GRC (site e-commerce, informations clients…), la donnée doit être exacte pour accélérer la résolution des problèmes/questions et ne pas nuire à l’image de l’entreprise.
  • Les choix stratégiques : baser ses analyses sur des données de mauvaise qualité, c’est immédiatement risquer de prendre de décisions inadaptées et sélectionner des solutions qui ne sont pas adéquates.

Sans être exhaustif, ce triple enjeu suffit à illustrer l’importance de la mise en qualité des données.

Livre blanc MDM (Master Data Management)

Comment améliorer la qualité et la traçabilité de vos données au cœur de votre SI ?

Quelles étapes suivre pour mettre en qualité ses données ?

La mise en qualité des données ne peut être réalisée en mode « Big Bang ». Elle nécessite de bien connaître son organisation. Il est essentiel de structurer sa démarche de façon à couvrir tous les aspects et à bien cadrer le projet :

Audit de la donnée et définition des usages 

Mettre en qualité ses données, c’est d’abord bien les connaître ! Il est important d’auditer ses données — nomenclature, mode de gestion, processus qui l’utilisent… — et de réaliser une cartographie.

En effet, la qualité de la donnée dépend en grande partie de l’usage qui en sera fait. Il faut donc décider des critères essentiels qui présideront à sa mise en qualité. On se concentrera en premier lieu sur l’exactitude, l’exhaustivité, la pertinence, l’actualité ou encore la cohérence de ces données.

Les objectifs, besoins et attentes des métiers doivent présider aux choix de format, de contenu et de disponibilité. Il est primordial que la donnée soit exploitable rapidement par toutes les applications concernées.

A la définition des usages futurs de la donnée doit s’associer un audit précis de l’existant.

Une analyse statistique des données permettra d’en connaître l’état actuel (anomalies, doublons, valeurs) et de déterminer les relations entre tous les jeux de données.

Définition de règles de formulation et de gouvernance de la donnée

Vient ensuite le choix des règles, de l’organisation et des outils. Ceux-ci permettront de maîtriser la donnée et d’y accéder en temps voulu, selon des parcours de validation établis.

Pour mettre en place une gouvernance de la donnée, on définira en particulier les points suivants :

  • Le contenu des méta-données : celles-ci consignent à la fois la nature des données et le traitement à leur apporter. Leur gestion sémantique doit donc être complète et pointue pour garantir que tous les utilisateurs trouvent facilement les jeux de données adéquats et adaptés à leur besoin.
  • Les outils de recherche et d’unification de la donnée : le dictionnaire de données — qui liste et classifie l’ensemble des données de l’entreprise —, le glossaire de données — pour les explications sémantiques des données et leur contextualisation — et le Data Catalog — mettant en relation glossaire et dictionnaire — participent à l’alignement des visions IT et métier.

Plus unifiées, les données répondent ainsi aux besoins fonctionnels des métiers tout en étant plus simples à partager.

  • Des rôles doivent également être définis pour contrôler la donnée et son enrichissement. Des collaborateurs tels que le Chief Data Officer, et plus opérationnellement le Data Steward ou le Data Quality Manager, seront directement responsables de la qualité des données et de leur préparation pour un usage rapide par les métiers. Leur tâche est également de préparer la diffusion de la donnée dans un contexte de forte exigence des marchés (besoin de gérer le cycle de vie de la donnée, de traçabilité, de conformité réglementaire). Plus globalement, ils participent aussi à faire progresser « culture data » de l’entreprise.
Livre blanc MDM versus PIM

MDM versus PIM : frères ennemis ou dream team ?

Au-delà des ces points opérationnels, l’entreprise doit aussi prendre du recul sur sa stratégie data et sur l’organisation de sa gouvernance. Celle-ci peut passer par la mise en place d’une instance de gouvernance de la donnée et repose aussi sur une acculturation des équipes aux enjeux autour de la donnée (ou Data Literacy). Dans tous les cas, cette vision doit être transversale à l’entreprise et portée par des membres de la direction.

Une fois le cadre défini, la démarche de mise en qualité elle-même peut être initiée.

Avant d’implémenter une solution, il est important de formuler une trajectoire et des étapes clés. Une réflexion qui doit mutualiser les visions technique et métier : le formatage des données pour les métiers ne sera utile que si les flux sont maîtrisés et les solutions bien intégrées au SI et inversement !

Sélection et implémentation des solutions liées à la mise en qualité des données

La démarche de mise en qualité des données est multifacettes. Adopter une triple approche « données / flux / processus » est le meilleur moyen de mener une réflexion complète sur la centralisation et l’harmonisation des données. Il est en effet crucial que la donnée conserve toute son intégrité, de la collecte jusqu’à l’utilisation métier.

La combinaison des solutions MDM, ESB et BPM permet de traiter la donnée sous chaque angle et de concilier vision technique et prérequis métiers.

Master Data Management et qualité

MDM

Le Master Data Management (ou Gestion des Données de Référence) compile une version unique et qualitative des données : dédoublonnage selon des règles métiers personnalisables, traçabilité et contrôle, suivi des données tout au long de leur cycle de vie. L’outil génère automatiquement des web services d’acquisition et exposition des données, harmonisant la data qui sera partagée à l’ensemble du SI.

ESB

Le bus applicatif normalise quant à lui les échanges, participant à conserver une donnée unifiée et exploitable entre toutes les applications et pendant tout son cycle de vie. L’interaction MDM/ESB est bidirectionnelle, avec un enrichissement du référentiel de données par les applications métiers elles-mêmes.

Les données transmises aux applications du SI sont sécurisées (cryptage, compression, procédures de validation) et l’emploi de demi-connecteurs contribue à une donnée moins transformée.

BPM

Le Business Process Management permet de faire vivre la donnée tout au long de son parcours et de la mettre à profit des métiers. Au fil des processus, les métiers participent à son enrichissement et accroissent sa valeur. Cette démarche assure une excellente adhérence des processus au SI, et une interopérabilité forte entre processus et datas.

Quelle que soit la solution — ou la combinaison de solutions — choisie(s), il est important de procéder par étapes : lorsqu’il s’agit de mise en qualité des données, comme nous l’expliquions précédemment, l’approche Big Bang n’est pas pertinente. La trajectoire sera définie selon les périmètres de données prioritaires afin d’avancer par étapes et consolider au fur et à mesure. Sur chacun, la donnée devra subir une véritable préparation (collecte, élimination des doublons, ajout des valeurs manquantes) et la connectivité des solutions être contrôlée en cours d’implémentation pour fournir des bénéfices rapides. Il ne s’agit pas de mettre en place des briques ESB, MDM, BPM… mais qui communiqueraient mal !

Interview d'expert projets MDM

Retours d’expérience sur la mise en place de solutions MDM (Master Data Management)

Intervention en temps réel et amélioration en continu de la qualité des données

Par ailleurs, la mise en qualité des données ne s’arrête pas à l’étape d’implémentation d’une solution : il est en effet nécessaire de la suivre au fil du temps et des évolutions organisationnelles et applicatives de l’entreprise.

Pour cela, il est essentiel d’associer dynamiquement les activités humaines et techniques : l’humain est partie intégrante de la chaîne au travers d’IHM et de la possibilité d’agir sur les données pour les enrichir, corriger, valider…

La mesure, mais aussi les systèmes de rappels et d’alertes doivent permettre d’identifier et de solutionner en temps réel les problèmes de qualité les plus importants. Un outil de gestion des incidents permettra de mieux remonter à la source des erreurs : reporting, tableaux de bord et assignation des tâches permettent d’améliorer en profondeur les processus et de corriger les erreurs de saisie et les autres causes de disfonctionnements. Cette console de pilotage doit prendre en compte aussi bien la supervision des flux de données, des processus que de la data quality

Ainsi, les problèmes de qualité de la donnée doivent pouvoir être signalés aux métiers au moment de leur apparition, mais aussi de manière régulière au sein de rapports et tableaux de bord. Ceci permet d’instaurer davantage de bonnes pratiques lors de la saisie et de faire entrer la mise en qualité dans la culture de l’entreprise.

L’automatisation soutiendra quant à elle le respect des règles définies en début de parcours. Les solutions choisies doivent permettre la validation systématique des données avant consignation dans le référentiel. Au gain de qualité, s’ajoute un gain de temps !

Chez Blueway, nous avons la conviction que data, flux et process sont interdépendants et servent tous l’enjeu de qualité des données. La gouvernance des données et les solutions à mettre en place doivent donc intégrer l’ensemble de ces dimensions. C’est la vocation de la plateforme Blueway !

Prendre rendez-vous

Echangez sur vos problématiques de qualité de données avec un expert Blueway !

Thomas Riviere
Thomas Rivière
Responsable Commercial. Depuis le début de sa carrière, Thomas conseille et accompagne les entreprises dans leur transformation digitale. A travers l’offre globale de Blueway incluant ESB, BPM, MDM et API Management, il est capable d’identifier les besoins précis et d’affiner sa proposition aux clients pour leur apporter un maximum de valeur.
Dans la même catégorie :
Master Data Management (MDM), Méthodes de la gestion des données