La cohérence des données garantit que les informations sont uniformes, intactes et accessibles dans leur forme la plus récente à travers tous les points d’entrée du système d’information d’une organisation. Les utilisateurs ont ainsi l’assurance qu’ils interagissent avec des données de confiance, quels que soient l’endroit et le moment où ils y accèdent.
Edouard Cante, Directeur Général Adjoint Produit, nous explique comment mettre en œuvre une stratégie de cohérence des données, malgré des données éparpillées dans des systèmes de plus en plus nombreux et hétérogènes.
Peux-tu nos donner ta définition de la notion de cohérence des données ?
La notion de cohérence des données, ou data consistency, indique que les données doivent être les mêmes à tout instant sur tous les nœuds d’un système répliqué. Apparaît donc cette logique dans le partage d’une information qui veut que la donnée soit disponible et qualitative. Les informations similaires, comme les données référentielles, doivent ainsi être mises en qualité avec une répercussion immédiate sur l’ensemble du système d’information (SI) pour engendrer cette fameuse cohérence des données. C’est seulement de cette façon qu’il est possible de s’assurer que les informations sont fiables quelles que soit les actions effectuées sur ces données et quel que soit le nombre d’applications les utilisant. Même dans les systèmes les plus hétérogènes (système d’information hybride par exemple).
Comment améliorer la qualité et la traçabilité de vos données au cœur de votre SI ?
Justement, comment garantir la cohérence des données dans un contexte où le Cloud est omniprésent ?
Tout le problème de la data consistency réside précisément dans la modélisation de cette cohérence, dans la mise en qualité et dans la convergence fonctionnelle de la structure de la gouvernance de l’information. Nous avons donc à faire à des enjeux de Master Data Management (MDM) et de Data Quality Management (DQM). Mais pour garantir cette cohérence des données, il faut en plus une « adhérence » au système d’information. Pour ce faire il faut capter les différents points d’entrées, qu’ils soient en interne ou chez AWS, OVH, Azure… afin de partager ces « points de vérité » au travers des différentes briques du SI, avec en fil rouge les règles de gouvernance en œuvre dans l’organisation.
Il faut donc bien différencier les notions de stockage, de définition fonctionnelle de la donnée et son urbanisation au sein du SI. Ajoutons que même si des données se trouvent chez différents prestataires, donc avec des SI qui ne dépendent pas de mon organisation, la plupart des services (que l’on parle de IaaS ou SaaS) ont des taux de disponibilités qui ne sont finalement pas très éloignés de ce qu’on l’on trouve dans une structure On Premise. Pour autant, cette gestion de la cohérence de la donnée est de plus en plus complexe et ne peut se faire sans l’aide d’une plateforme. Et c’est exactement dans ce contexte qu’une solution comme la plateforme Phoenix tire son épingle du jeu.
Comment maintenir cette cohérence et quel est l’impact sur l’organisation ?
Cette data consistency a forcément des impacts fonctionnels qui nécessitent des arbitrages. La technique ne représente pas un problème en soi, car les organisations sont aujourd’hui en capacité de répliquer un référentiel de données de façon quasi instantanée grâce aux APIs. Mais prenons un hub de données type data lake ou BI couplé à un ERP qui peut pousser de la donnée instantanément, mais dont l’agrégation ne se fait qu’une fois par jour (la nuit par exemple) : une dissonance peut apparaître entre les deux. Il y a donc un choix fonctionnel à opérer : faut-il synchroniser immédiatement ou permettre un délai ? Un utilisateur BI va travailler sur les données de la veille, car il a besoin d’une vision macro. Alors qu’un collaborateur d’une BU financière qui vient de modifier un IBAN veut voir sa manipulation se répercuter immédiatement dans le SI afin de garantir la fiabilité des transactions commerciales. L’enjeu de cohérence se trouve donc au niveau de la gouvernance, pas de la technologie.
MDM versus PIM : frères ennemis ou dream team ?
Peux-tu nous donner des exemples concrets des bénéfices dans ce contexte ?
Le bénéfice de performance pour l’organisation est évident puisque les données sont partagées, synchronisées et le point de vérité est clair aux yeux de tous. Ainsi lorsqu’un KPI est présenté il n’est pas rediscuté ou challengé (les informations sont les mêmes qu’elles soient tirées de l’ERP ou d’une solution CRM par exemple). Et cette vision à 360° est essentielle lorsque l’on échange sur différents enjeux stratégiques. De plus, le bénéfice peut également se calculer au niveau de la productivité, car la flexibilité apportée par la cohérence des données est l’un des axiomes du ROI de tout projet. Enfin, la cohérence des données peut également être perçue comme l’un des leviers de mise en œuvre de security by design. En effet, puisque l’organisation maîtrise sa donnée de référence, donc les traitements entrants et sortants qui lui sont liés, avec une traçabilité des actions via les APIs, elle génère de fait du security by design.
Quelles sont les bonnes pratiques à suivre pour garantir la cohérence des données ?
Je recommande de commencer par suivre les 3 axes suivants :
- La sécurisation du stockage de la donnée, au sens IT (performance, redondance) et cyberdéfense (sensibilisation au IaaS et formation des collaborateurs sur cet enjeu).
- La gouvernance de l’information pour développer une véritable entente sur « qui fait quoi », et une volonté de parler un même langage. Il faut pour cela partager les définitions au niveau du catalogue de la donnée et des processus de gouvernance, avec la gestion des droits et habilitations notamment.
- L’urbanisation de l’information pour exploiter la data consistency dans sa valeur, ce qui ne peut se faire qu’en captant de la donnée à travers tout le système d’information.
La plateforme Phoenix a justement été pensée pour gérer la mise en qualité de l’information, les référentiels de données et tous les câblages nécessaires pour mener à bien les échanges d’informations entrants et sortants.
Elle est donc à même de mettre en œuvre une véritable stratégie de cohérence des données et surtout de la piloter de façon efficiente grâce à ses fonctions de monitoring. Car sans cette vision immédiate et complète, il est impossible de faire de la data consistency « à l’aveugle » !
Echangez sur vos problématiques de qualité de données avec un expert Blueway !