Archive d’étiquettes pour : Tous les secteurs

Quels enjeux et outils pour la gouvernance de données ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente chez les décideurs. Cependant, il reste ensuite à définir comment mettre cette stratégie en application et quels outils de gouvernance de données adopter ! Règles de gestion, contrôle des flux de données et répartition des rôles humains sont autant d’enjeux devant être soutenus par une méthodologie et des outils adaptés pour aboutir à une gouvernance de données opérationnelle et efficace pour votre organisation.

Stratégie de gouvernance des données : à quel besoin répond-elle ?

La gouvernance des données est une approche transversale, qui consiste à mieux comprendre et normaliser l’usage fait de la donnée par tous les intervenants d’une organisation. Ces meilleures compréhension et normalisation sont essentielles pour répondre aux besoins des métiers consommateurs de la donnée et atteindre ses objectifs, mais pas seulement !

Avec l’augmentation massive des volumes de données et le besoin impératif de les protéger (sécurité et intégrité, mais aussi respect du RGPD et des réglementations spécifiques selon les domaines d’activité), mettre en place une gouvernance des données n’est souvent plus une option pour les entreprises. Celle-ci apporte un cadre à la gestion des données, les valorise et participe in fine à une prise de décision éclairée.

Deux retours d’expérience complémentaires sur la mise en place de solutions MDM

Les axes et les rôles clés sur lesquels repose la gouvernance de données

Pour répondre aux enjeux stratégiques et opérationnels de l’entreprise, la gouvernance doit se développer selon quatre axes :

Développement de la culture data et des rôles clés dans l’organisation

Culture data et rôles clés

Afin de permettre à chacun de mieux appréhender et s’impliquer dans la démarche de gouvernance des données, il est essentiel de développer une culture de la donnée en interne. Pour cela, on formera ses collaborateurs, on définira des sponsors, des rôles clés et on adaptera son organisation en fonction des enjeux data.

Normalisation et qualité des données

Qualité et standardisation

L’existence de règles de qualité, de glossaire data et de données de référence uniques est essentielle pour que toute l’entreprise travaille sur la même base.  

Circulation de la donnée

Transport et flux de données

Une fois la donnée qualifiée, il est important de s’assurer que celle-ci puisse être efficacement transmise et comprise par les métiers ! La gouvernance des données implique une maîtrise des flux, qui tienne à la fois compte des applications en place, de l’architecture du SI et des attentes des métiers. 

Gestion durant l’ensemble du cycle de vie

Gestion complète de la donnée

Cartographier et visualiser le parcours de la donnée, de la collecte à la consommation, permet de maximiser son utilité. Des processus cadrés et une bonne supervision sont l’assurance de s’aligner et mieux piloter le cycle de vie de la donnée (data lineage, traçabilité…).

Sur le plan humain, des spécialistes de la donnée peuvent intervenir à plusieurs niveaux pour garantir un traitement conforme aux objectifs, attentes et activités de l’organisation. On citera notamment :

  • Le Data Owner : celui-ci définit les actions à mener autour de la donnée dans son périmètre métier et prend du recul sur la data et son utilisation par les métiers.
  • Le Data Steward : acteur opérationnel de la qualité, il assure également la bonne compréhension de la donnée par les métiers, afin que la data soit réellement valorisée et exploitable.
  • Le Data Architect : ce cartographe des données contribue à les structurer pour une parfaite adéquation avec le SI. Il accompagne également la trajectoire à suivre pour l’entreprise autour de la data, et ses implications en termes d’architecture.

Les experts data ont un rôle fort à jouer dans les actions de mise en qualité et d’utilisation de la donnée, mais aussi dans la sensibilisation et la mise à la portée de la data à tous les métiers.
Plus largement, ceux-ci agissent sur l’adéquation entre les données et l’organisation : un facteur de succès indispensable pour toute stratégie de gouvernance des données.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Le rôle de Blueway pour accompagner votre stratégie de gouvernance des données 

Afin de répondre aux exigences de mise en œuvre opérationnelle et technique, Blueway propose une plateforme apportant plusieurs solutions complémentaires et intégrées autour des enjeux de gouvernance de données. Cette plateforme est conçue pour appréhender la gestion de l’information dans son ensemble, et in fine pour soutenir votre stratégie de gouvernance.

Le module Data Governance replace les utilisateurs de la donnée au cœur de sa gestion, normalise et organise la donnée grâce à :

La mise en qualité des données

Mise en qualité personnalisée

… pour unifier la compréhension de la donnée par tous les métiers et augmenter leur confiance dans la data, en structurant le traitement (dédoublonnage, règles métiers, transcodification…)

La modélisation des référentiels de données

Modélisation facilitée

… pour faciliter la structuration et l’architecture data selon les besoins de l’organisation.

La maîtrise des accès et rôles…

Accès et habilitations

… pour sécuriser l’accès à la data et garantir sa sécurité sur la durée (habilitation, gestion des événements et des rôles)

L’administration et le pilotage de la qualité

Administration et pilotage

… avec un monitoring de la qualité et une gestion du cycle de vie des données qui maximisent la valeur des experts de la data.

Le module Data Foundation œuvre quant à lui pour une circulation efficace et maîtrisée de la donnée dans tout le SI avec :

La collecte et le transport

Collecte et transport

Mettez en place un un bus applicatif central via lequel toutes les applications métiers seront alimentées.

Les règles de consommation

Règles de consommation

Transformation, enrichissement, règles de gestion : configurez le traitement de la donnée durant tout son parcours dans le SI.

Le déversement et l’exposition

Déversement et exposition

Exposez efficacement la donnée et gouvernez la mise en place d’API, quelle que soit votre architecture existante.

La supervision des flux

Supervision des flux

Monitorez le parcours de la donnée et identifiez rapidement les erreurs pour garantir l’intégrité et une circulation fluide de l’information.

Pour aller plus loin dans la maîtrise de la donnée, on peut enfin aborder les facettes de l’exploitation et de l’intégration dans les processus métiers. Le module dédié, appelé Process Governance, met ses fonctions de modélisation, d’automatisation et de pilotage des processus au service des métiers, tout en apportant à ces processus une meilleure adhérence au SI.

Correctement associées, ces solutions deviennent un socle naturel à la stratégie de gouvernance de données et accélèrent sa mise en place pour toute votre organisation !

Vous souhaitez échanger avec l’un de nos experts sur l’outillage de votre stratégie de gouvernance de données ?

Au plaisir d’échanger avec vous !

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Plateforme Phoenix version 7.0 interview du DGA

Edouard, ton rôle de Directeur Général Adjoint Produit reflète aussi l’importance portée au produit au sein de Blueway. Pourquoi cette organisation ?

Cette organisation sanctuarise le produit dans l’entreprise ! La présence au sein du COMEX d’une personne totalement dédiée au Produit assure que toutes les décisions soient réalisées en intégrant cet éclairage.

Tous les chantiers liés au produit sont ainsi alignés avec la stratégie de l’entreprise et menés en cohérence : packaging du produit, gouvernance des décisions fonctionnelles, exigences de qualité, support client…

Nous cherchons continuellement au sein du COMEX à améliorer cette gouvernance transversale du produit. La phase d’idéation et d’alimentation de la stratégie produit doit être ancrée dans le terrain, à travers les retours des clients et l’évolution du marché aussi bien dans le secteur public que privé. Ensuite, la feuille de route est isolée afin de décliner opérationnellement la stratégie produit, garantir la cohérence de l’architecture logicielle et l’adéquation entre la ligne directrice logicielle et les objectifs de l’entreprise. C’est ainsi loin d’être un travail dans une tour d’ivoire :  tous les services de l’entreprise contribuent au Produit !

Si le domaine du traitement de la donnée peut paraître au premier abord un sujet technique, de plus en plus de nos interlocuteurs sont des décideurs stratégiques et métiers. Cela requiert de porter un regard différent sur la stratégie et de mettre le Produit au cœur de l’organisation de Blueway.

Quelles sont les convictions qui ont cimenté à l’origine l’approche produit de Blueway ?

La vision initiale du produit s’est construite autour d’une conviction de Daniel, le fondateur de Blueway, à laquelle nous avons tous adhéré.

Dans la majorité des organisations, les besoins autour de la data sont au croisement de différentes disciplines : traitement de l’information, gestion de processus hybrides et gouvernance des données de référence. C’est la notion d’EIM (Enterprise Information Management) : comment gère-t-on l’information au sens de sa gouvernance ? Sa circulation ? Sa mise à disposition ? Comme relie-t-on toutes ces dimensions ?

Nous sommes persuadés que tous ces éléments s’imbriquent pour constituer la réponse globale de gestion de l’information pour une société ! C’est au regard de cette conviction que nous organisons tous les développements et la manière dont nous construisons le logiciel.

Notre plateforme logicielle croise ainsi, depuis son origine, différentes disciplines. Notre objectif n’est ainsi pas d’être le meilleur MDM, le meilleur BPM, le meilleur ESB… mais de proposer une réponse cohérente et globale pour appréhender la gestion de l’information dans son ensemble et intégrer l’être humain dans ses processus.

C’est la ligne directrice qui éclaire notre stratégie produit depuis la création de Blueway. La complémentarité entre la circulation de l’information (ESB) dans le SI et la gestion des processus (BPM) est le socle d’origine. Avec l’avènement de la gestion de la qualité de l’information, la brique MDM a été une évidence. Elle a ensuite été suivie de l’APIM qui est l’aboutissement de cette philosophie en permettant aux organisations de gouverner l’exposition des API à partir de leur plateforme de gestion de données.

En plus de l’architecture logicielle, cette conviction nous éclaire à tous les niveaux. Par exemple, si nous répondons à des enjeux d’urbanisation et d’exposition de l’information, nous devons être au top au niveau de la sécurité, être le plus flexible possible en termes de connectiques, garantir la qualité logicielle… Cela nous guide également sur les stacks technologiques ou sur le Security by Design.

En complément, notre volonté d’ouvrir l’usage et la culture de la donnée à des profils non-techniques a aussi conditionné notre manière de penser et d’envisager le futur. Depuis la création de Blueway, l’approche low-code est ainsi un aspect crucial, tout comme le prisme que nous portons sur chaque fonctionnalité afin de limiter au maximum la complexité technique.

Pourquoi ces orientations sont porteuses de sens pour les entreprises ? Comment s’inscrivent-ils dans la stratégie produit ?

Actuellement, les réponses du marché ont majoritairement soit une approche très low code, mais sur un périmètre fonctionnel limité, soit avec une couverture large mais technologiquement complexe à mettre en œuvre.

Face à ce constat, nous sommes convaincus que l’attente principale du marché est de démystifier l’exploitation et la valorisation de l’information, afin de sortir la donnée d’une vision technique et apporter de l’autonomie et de l’efficacité aux directions métiers.

Je suis convaincu que la cible à atteindre n’est pas technologique, elle est en termes d’usages !

Notre but, c’est ainsi de permettre aux utilisateurs de faire totalement abstraction de la stack technique et des enjeux technologiques (montée de version, scalabilité, accessibilité…) afin de pouvoir répondre simplement à toutes leurs problématiques autour de la data.

Cette vision a aussi des échos pratiques : elle répond à des problématiques de coût pour les organisations, aussi bien en termes de licences logicielles que de montée en compétences des équipes. Multiplier les couches technologiques entraîne des courbes d’apprentissage longues et des contraintes sur les profils à recruter !

La solution doit ainsi à la fois tendre vers une simplification ultime pour accompagner tous les types d’utilisateurs et rendre la mise en œuvre transparente, tout en étant très riche en termes de capacité fonctionnelle pour appréhender la gestion de l’information de l’organisation dans son ensemble.

Cette conviction s’ouvre maintenant également sur des sujets hors du produit : pour accélérer leur transformation, les équipes IT comme métiers sont intéressées par des retours d’expérience, la capitalisation de modèles de processus, de référentiels ou de services. La plateforme Phoenix V7 est d’ailleurs une étape importante sur ce chemin !

Je veux que nous nous challengions en permanence pour nous adresser aussi bien à des publics techniques que fonctionnels !

Avec la sortie de la V7 de la plateforme Phoenix, nous ne sommes pas simplement sur une nouvelle version. En quoi c’est une étape clé pour la stratégie produit ?

Premièrement, l’architecture logicielle a été repensée afin de simplifier le déploiement de la plateforme. Si ce point parait technique, il s’inscrit en fait complètement dans notre cible en permettant à nos clients de s’affranchir de toute une partie des enjeux techniques.

En effet, l’évolution de la décomposition des briques de la plateforme apporte une plus grande flexibilité, stabilité et scalabilité aussi bien horizontale que verticale. En quelque sorte, l’architecture logicielle était initialement pensée au niveau de la brique ESB, et elle est maintenant pensée au niveau de la plateforme Phoenix au global !

Une vraie satisfaction pour toute l’équipe produit a été la diminution de 50% des temps de traitement des processus techniques lors des benchmarks !

Cette refonte nous permet donc de fiabiliser d’autant plus notre stratégie sectorielle autour des verticaux. Au-delà de notre vertical pour les coopératives agricoles et de la nouvelle version de FORUM GRU pour le secteur public, nous poursuivons nos efforts pour ce dernier par l’élaboration d’un nouveau vertical nommé FORUM RH, portail de gestion des processus RH à destination du secteur public.

Cette nouvelle version nous permet d’accélérer dans la constitution de nos offres verticalisées à l’instar de FORUM RH, portail de gestion des processus RH à destination du secteur public.

De plus, cette évolution de l’architecture nous permet de basculer du monde du PaaS pour proposer une vraie expérience SaaS. A titre d’exemple, lors du déploiement de la solution, les équipes n’ont plus besoin d’accéder à l’environnement technique : tout se fait avec un navigateur ! La disparition de toute cette facette, qui impliquait de la complexité technique, est un changement crucial pour nos clients dans leur perception.

Un de nos mantras, c’est de proposer toujours le meilleur rapport entre la simplicité de la réalisation, et la complexité fonctionnelle des enjeux métiers auxquels on répond.

Deuxièmement, la refonte de la console de supervision permet à nos clients d’adresser des problématiques de plus en plus riches. Disposer d’outils d’exploitation plus performants, c’est être plus serein pour accompagner la montée en charge de la plateforme : nouveaux utilisateurs, portails, services, processus…

Troisièmement, dans notre ligne de démocratisation de la data au sein de l’organisation, le BPM Studio est un nouvel environnement pensé pour les utilisateurs fonctionnels afin de construire intuitivement, et sans requérir de compétences techniques, leurs processus. C’était une demande forte de nos clients du secteur public : permettre aux métiers de se saisir de l’enjeu de digitalisation de leurs processus est un vrai accélérateur !

Cependant, le lancement de Phoenix V7 est également une étape clé, car c’est l’occasion pour Blueway de bâtir un vrai écosystème avec ses clients et ses partenaires. La Gallery va offrir aux utilisateurs des modèles de processus, de référentiels ou de services afin d’accélérer les projets et découvrir de nouveaux usages. La Blueway Academy et le cycle de certifications vont garantir à nos clients d’accéder à des partenaires de référence. Le Club Utilisateurs et le portail partenaires vont créer de nouvelles occasions de partager et co-construire.

Le lancement de Phoenix V7 est un renouveau pour Blueway. C’est un cap qui accompagne notre croissance et va permettre, à nous et à nos clients, d’accélérer !

Si tu avais un message à adresser à :

  • Client : « Phoenix V7 va réellement améliorer vos temps de déploiement et de maintenance. Vous allez redécouvrir une plateforme que vous croyiez connaitre et qui a été repensée par rapport à vos usages ! »
  • Prospect : « Phoenix V7 est certainement la plateforme la plus riche pour répondre à une problématique de gestion de l’information globale dans votre organisation, avec une solution très simple à déployer, flexible, scalable et avec une courbe d’apprentissage maitrisée. »
  • Collaborateur Blueway : « Que tu sois développeur, chef de projet, commercial, avant-vente, c’est la version dont tu as rêvé ! « 
  • Partenaire : « Phoenix V7 est liée à la mise en place d’un écosystème riche pour les partenaires. C’est une solution pensée pour assurer des développements et une maintenance fiables auprès de vos clients, avec un écosystème qui vous permet de l’appréhender de la manière la plus rapide possible. De plus, elle permet à vos équipes de disposer d’une plateforme impliquant quatre disciplines, ce qui est valorisant pour les consultants. »

Comment garantir un traitement des données efficient ?

Il est courant de résumer le traitement des données à leur nettoyage et leur intégration… mais ce faisant, on adopte une vision incomplète de la démarche. Car pour exploiter pleinement la data, il est nécessaire de considérer l’intégralité de son parcours. Piloter avec soin chaque étape du Data Processing, de la collecte au stockage, et mettre en place les bons outils et méthodes aux points de passage clés, c’est en améliorer l’efficacité, la qualité et donc l’exploitabilité des données. L’ensemble de l’organisation, des métiers aux instances décisionnelles, pourront tirer davantage de valeur de données correctement traitées.

Le traitement des données ou data processing : de quoi s’agit-il ?

Par traitement des données, ou Data Processing, on désigne les opérations menées sur la data dès sa collecte afin de la rendre exploitable et d’en maximiser la valeur. Une démarche qu’il est essentiel de structurer, et mener en continu pour ne pas être débordé par les volumes de données collectés quotidiennement.

Si le Data Processing peut inclure un traitement manuel de la donnée – un Data Scientist peut par exemple dans certains cas prendre en charge la première phase de traitement et produit des analyses documentées qui rejoindront ensuite le SI et ses applications métier –, celle-ci passe également par un certain nombre d’étapes automatisées. Le traitement des données suit en général les phases suivantes :

1. Collecte

2. Pré-traitement

3. Importation

Les données – structurées ou non sont  collectées depuis toutes les sources disponibles (data lakes, data warehouses, Excel, applications métier,  IoT…)

Un nettoyage et un dédoublonnage sont effectués, avec élimination de la data de faible qualité

Les données sont converties dans un format exploitable et transportées vers les applications de référence du SI.

4. Traitement

5. Exploitation

6. Stockage

Des solutions automatisées interviennent à cette phase pour structurer et transformer les données selon leur utilisation future.

Une fois disponibles, les données peuvent être consultées et utilisées (par les métiers, outils de BI, processus…) à des fins de prise de décision stratégique ou tout simplement des activités de l’organisation.

Le traitement inclut également la phase de stockage, importante pour conserver les données dans le respect du RGPD et des normes d’archivage selon le contexte.

Le traitement des données, mais aussi le profil de la data collectée dès le départ sont des éléments importants pour la qualité : la donnée ne pourra en effet apporter de la valeur ajoutée que si elle est fiable dès la source, puis bien structurée lors du pré-traitement, en fonction des usages finaux !

Comment accompagner l’ambition de transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

Comment garantir un traitement efficace de la donnée ?

Au stade crucial de l’intégration, le traitement de la donnée fait intervenir des solutions telles que l’ETL (Extract Transform Load), l’EAI (Enterprise Application Integration) et le bus applicatif ou ESB.

Mais la valorisation de la data ne dépend pas uniquement de l’intégration : son transport, son stockage, les efforts faits pour la structurer et la mettre en qualité… chacun de ses points de passage fait évoluer la donnée et joue donc un rôle majeur dans son exploitabilité !

Un autre facteur essentiel dans la réussite du traitement est la prise en compte de tous les besoins spécifiques : normes et formats propres à un secteur, besoin des métiers et gestion cohérente des flux… adapter le traitement à son activité fait une vraie différence.

Pour répondre aux besoins de chaque entreprise, plusieurs critères doivent ainsi être réunis :

Une intégration automatisée et supervisée

Disposer d’une console de supervision permet de suivre le statut des flux, les indicateurs de performance, les procédures de validation, la sécurité… et apporte de la visibilité sur les échanges, le traitement et l’intégration.

Une normalisation des échanges et un routage intelligent

Echanges standardisés et routage intelligent

Les solutions d’intégration doivent accélérer les échanges, et donc transporter immédiatement la data aux bonnes applications tout en assurant la persistance si nécessaire (synchrone/asynchrone). Dans l’opération, la solution doit aussi transformer les messages pour les convertir dans un format standard et si besoin conforme aux normes du secteur.

Une manipulation et un enrichissement simples de la donnée

Traitement et enrichissement

En plus d’une médiation intelligente, le traitement de la donnée doit pouvoir être paramétré ou affiné facilement. Les messages doivent pouvoir être enrichis au travers de circuits de distribution intermédiaires (référentiel de données de référence par exemple).

La réussite du traitement ne s’arrête bien sûr pas là. La qualité des données et leur exploitabilité se jouent en réalité tout au long de leur cycle de vie, au moment de la constitution d’un référentiel de données, de l’orchestration des flux selon les enchaînements métiers, de leur mise à disposition contextualisée… Un traitement à 360° de l’information, ce ne sont pas uniquement des solutions qui valorisent la donnée : l’approche globale doit, elle aussi, tenir compte de l’usage final qui sera fait de l’information.

La distinction ESB vs ETL n’a plus de sens face aux besoins métiers !

ESB, BPM et MDM : le triptyque du cycle de vie de la donnée… et de son traitement efficace

L’ESB (Enterprise Service Bus) forme le socle de la solution Blueway pour un traitement complet de l’information (manipulation, contrôle et exposition de la donnée, dans une logique SOA). Le bus applicatif joue en effet un rôle majeur à l’étape de structuration des flux : son rôle est de faciliter la circulation de l’information entre les applications métier et d’urbaniser le Système d’Information.

Mais notre approche chez Blueway tient compte de toutes les autres dimensions de la gestion des flux de données ! C’est seulement ainsi que l’on peut maximiser la valeur apportée à l’organisation par la data.

MDM

En amont, le MDM (Master Data Management) est le référentiel unique de données qui assure la réussite de la collecte, de la mise en qualité et de l’enrichissement des données qui circuleront dans le SI.

BPM & APIM

En aval, le Business Process Management garantit que les bonnes informations soient mises à disposition au bon moment, et selon l’activité des utilisateurs métiers. Il apporte également des interfaces pour saisir des informations structurées selon le contexte d’usage.
Celles-ci peuvent également être exposées auprès des partenaires via notre solution d’API Management.

Ensemble, ces composantes complémentaires et intégrées au sein de la plateforme unique Phoenix, permettent de garder le contrôle et la visibilité sur tout le cycle de vie des données. Phoenix facilite la mise en place d’une architecture SOA et assure une véritable valorisation de la donnée, en adaptant le traitement aux besoins de chaque organisation, depuis la collecte jusqu’à la prise de décision stratégique.

VVous souhaitez améliorer le traitement et la valorisation de vos données ?

Au plaisir d’échanger avec vous !

Comment choisir le meilleur logiciel BPM ?

Comment choisir un logiciel BPM (Business Process Management) adapté à son organisation sans négliger l’essentiel ?

Comment résumer le BPM ?

A la base du Business Process Management se trouvent 3 fonctions essentielles pour la gestion des processus :

  • De la modélisation graphique pour représenter l’enchaînement des interventions métier dans leur intégralité
  • De l’automatisation pour séquencer les actions, collecter les données, les mettre à jour et déléguer les tâches simples à la machine
  • Du monitoring pour prendre du recul sur son organisation et identifier rapidement les sources d’erreurs, les goulots d’étranglement, et les axes d’optimisation.

En plus de ces trois briques, l’apport d’une telle solution repose également sur la capacité d’amélioration continue des processus.

Quels critères sont incontournables lors du choix d’un BPM ?

Certaines capacités de base du BPM sont essentielles pour être sûr de déployer vite et bien la solution. Parmi ces points, il ne faut surtout pas oublier :

Facilité de prise en main de l’outil

Intégration simple et complète au Système d’Information

Souplesse et évolutivité

Simplicité de la solution BPM
Adhérence au SI et interopérabilité
Un BPM responsive et évolutif

Celle-ci passe par des fonctionnalités et des démarches telles que :

  • Low code et modélisation graphique intuitive par drag and drop
  • Utilisation de la norme BPMn 2.0
  • Modèles de processus préconçus disponibles

Automatisation du routage, des alertes, délégation…

Pour être efficace la solution doit être :

  • Adhérente au SI pour renforcer l’interopérabilité process/data
  • Dotée d’une console de supervision

Combinable avec d’autres outils de transport et de qualification de la donnée

Afin d’être adopté par tous et sur la durée, le BPM aura tout intérêt à :

  • Être responsive et multi-supports dans ses portails et formulaires
  • Tenir compte de l’évolution des processus et permettre leur mise à jour efficiente

Standardiser les usages sur la durée

Pourquoi la digitalisation des processus est loin d’être un sujet dépassé ?

Le déploiement du logiciel BPM lui-même doit être simple dès les premières étapes. Une prise en main rapide par tous les utilisateurs, appuyée par une bibliothèque de modèles (LIEN MARKETPLACE), c’est l’assurance d’accélérer le développement de nouveaux services, selon les évolutions de l’organisation, et donc d’être réactif face au changement.

Qu’en est-il des fonctions annexes ?

Selon le besoin, des modules additionnels peuvent venir compléter le BPM. Outils de simulation ou déploiement de portails collaboratifs : ces dispositifs contribuent au développement de « processus augmentés » et à un enrichissement en temps réel des workflows.

Ils sont une excellente réponse aux besoins spécifiques ou sectoriels comme pour la mise en place d’un portail fournisseurs par exemple. Cependant, toutes les organisations peuvent les implémenter pour faciliter l’implication des métiers et l’adoption de la solution en interne, mais également en externe avec l’écosystème (fournisseurs, clients, partenaires…).

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Au-delà du seul choix d’un BPM, considérez le parcours de la donnée dans son ensemble !

Pourquoi est-il préférable de prendre du recul sur la donnée en complément du BPM ?

Mieux orchestrer ses flux de données et processus, c’est avant tout prendre du recul sur la diffusion, le partage et l’action autour de la data dans l’organisation. Une solution de BPM doit permettre de coordonner visions technique et stratégique, faute de quoi elle risque de manquer son objectif !

La vocation finale du BPM : répondre à la fois à un besoin d’optimisation des processus et faire circuler la data de manière transversale et efficiente. Car le parcours de la donnée ne s’arrête pas à la modélisation ni à l’automatisation : mieux vaut également veiller à ce que les applications, anciennes ou nouvelles, et donc les métiers concernés soient alimentés par les flux. C’est la notion d’adhérence des processus au Système d’Information qui nous est chère chez Blueway !

Quelles sont les principales dimensions à prendre en compte autour de la donnée ?

Faire circuler et exploiter la donnée avec succès est plus simple si l’on considère toutes les facettes de la data :

Orchestration des flux
et prise en compte de l’humain dans les processus

Acheminement des échanges
et maîtrise des flux dans le SI

Exactitude de la donnée
et actualisation en temps réel

BPM et orchestration de flux
ESB et transport de la donnée
MDM et précision de la donnée


En adoptant cette triple approche, on met en place une gouvernance des processus, mais aussi des flux et des données. On obtient alors une vision complète de l’information qui circule en permanence dans le SI, et donc une capacité à corriger et améliorer rapidement l’existant.

L’approche plateforme de Blueway, au service d’une vision d’ensemble de la donnée

C’est cette conviction qui guide l’approche de Blueway et a mené à la conception d’une plateforme complète intégrant, outre le BPM, deux modules complémentaires.

Process Governance, une gestion complète de vos processus…

Process Governance, c’est le module Blueway entièrement dédié au traitement des processus. Celui-ci traite les points essentiels cités plus haut avec :

  • Le respect de la norme BPMn 2.0 pour uniformiser le traitement, importer facilement des processus existants, gérer les habilitations…
  • Des interactions et du drag and drop pour modéliser rapidement ses processus
  • Une intégration de l’intervention humaine dans des processus hybrides
  • La génération de portails qui accélère la prise en main par les utilisateurs
  • Des fonctions de pilotage complètes : documentation automatique des processus, timeline et suivi…

Process Governance met à la disposition de ses utilisateurs toutes les briques pour modéliser, orchestrer et faire évoluer les processus au fil du temps, sans contrainte technique.

… et deux autres modules pour traiter intégralement le cycle de vie de la donnée et les flux


Dans notre approche plateforme, nous avons conçu et intégré les deux solutions complémentaires d’ESB (Data Foundation) et MDM (Data Governance). Combinés avec le BPM, ces modules permettent d’urbaniser entièrement les échanges de données et d’assurer à tout moment l’exactitude de celles-ci.

Ces modules assurent l’interopérabilité des données et des processus et la capacité des métiers à disposer en temps réel de toute la data utile. Acteurs de l’utilisation du BPM et principaux destinataires de la donnée, les services métiers se libèrent des contraintes techniques pour se concentrer sur leurs activités.

Vous avez un projet de BPM ou des questions à ce sujet ? Échangez avec l’un de nos experts!

Au plaisir d’échanger :

HubEE : service public

Synthèse du webinar Blueway & CD56 : comment réussir le passage à HubEE pour les acteurs du service public ?

Lors du webinar du 29 septembre 2022, Blueway a donné la parole au Conseil Départemental…

SDIS : Améliorer son Système de Gestion Opérationnelle en 5 points

Le contexte des SDIS (Service Départemental d’Incendie et de Secours) est loin d’être…

Plateforme omnicanal : les solutions

Retail : la stratégie omnicanal ne peut pas se passer du DSI !

La grande distribution subit de plein fouet l’impact du digital. Pour rester dans la course…

BPM : gagnez du temps de travail

Récupérer 3 semaines de travail grâce au BPM

Il reste encore des efforts à fournir pour optimiser le temps de travail des…

Choisir un logiciel workflow : quels critères retenir ?

Quel logiciel de workflow choisir pour automatiser vos processus ?

Gérer un flux de travail (la traduction de workflow) consiste à coordonner un ensemble…

BPMN 2.0 : décryptage Business Process Model and Notation

Qu’est-ce que la norme BPMN 2.0 (Business Process Model and Notation) ?

Les personnes qui interviennent sur chacun des processus de votre organisation sont nombreuses…

Comment choisir le meilleur logiciel BPM ?

Piloter ses processus pour répondre aux enjeux des métiers et de la donnée : comment choisir le meilleur logiciel BPM pour votre organisation ?

Comment choisir un logiciel BPM (Business Process Management) adapté à son organisation sans…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Qu’est-ce-que le Data Lifecycle Management ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de la fiabilité des processus, mais aussi de la performance de l’ensemble du SI et de l’analyse stratégique de l’activité.
Cette gouvernance se joue à la fois sur le front de la collecte, de la diffusion, de la suppression de la data… traiter l’ensemble du cycle de vie des données est important pour ne négliger aucun aspect ! Le Data Lifecycle Management (DLM) est ainsi une réponse au besoin de qualification, mais aussi à celui de transversalité : les métiers doivent être capables d’enrichir la donnée dès sa collecte pour la faire véritablement vivre dans le SI.

Le Data Lifecycle Management : automatiser et superviser pour mieux maîtriser le parcours de la donnée

Le Data Lifecycle Management est une approche consistant à gérer la donnée durant l’ensemble de son cycle de vie, de sa collecte à sa suppression. En décomposant le parcours de la donnée en processus, puis en automatisant chacun d’entre eux, on permet à la data de circuler sous conditions d’une étape à l’autre, en bénéficiant d’un enrichissement maîtrisé et personnalisé. La démarche de Data Lifecycle Management concilie applications, méthodes et procédures, et tient compte des particularités de chaque organisation.

Le DLM répond à un triple objectif :

  • Assurer l’intégrité des données : celle-ci reste exacte malgré son utilisation par plusieurs acteurs, sa circulation dans le SI et son stockage sur des supports divers
  • Garantir la disponibilité des données : la donnée est toujours accessible aux intervenants qui en ont besoin, ce qui fluidifie les processus et l’activité au quotidien
  • Sécuriser les données : Les erreurs humaines et techniques sont contrôlées. La donnée reste précise et fiable malgré les manipulations. Protégée par des droits d’accès, elle sera stockée de manière sécurisée jusqu’à sa suppression.

L’automatisation est l’une des caractéristiques principales de cette approche. L’intégralité du traitement de la donnée – que celui-ci soit actif ou de l’ordre du stockage – sera personnalisée selon la criticité et à la fréquence d’utilisation. On orchestrera ainsi les flux circulant dans le SI au plus près du besoin.

Avec le soutien sur le plan humain de spécialistes de la donnée tels que le Data Steward, le traitement maîtrisé de la data à chaque étape pourra être garanti. Responsable de la qualité de la donnée (contrôles et correctifs, renseignement des métadonnées…) et de leur utilité par les métiers, cet intervenant clé s’intègre naturellement dans la démarche de DLM.

Deux retours d’expérience complémentaires sur la mise en place de solutions MDM

Les cinq phases du Data Lifecycle Management, de la collecte à la suppression

On distingue généralement cinq phases dans le traitement de la donnée :

Création et collecte

Stockage et gestion

Utilisation et partage

Archivage

Suppression

Génération et collecte des données
Conservation et maintenance des données
DLM : Consommation et partage
Archivage-donnees
Suppression et unification des données

Cette étape a pour but de collecter la donnée en fonction de son origine et de ses utilisateurs. On fera également le tri entre les données devant ou non être collectées.

On assure à ce stade un traitement préparatoire des données (encryptage, compression, dédoublonnement…) et un stockage adapté (sécurité, accessibilité, sauvegarde…)

On gère ici les rôles et attributions, afin que chaque personne habilitée accède aux données qui lui sont nécessaires. La donnée peut, à cette étape, être utilisée par des logiciels de BI ou autres outils analytiques et générer elle-même davantage de données.

La donnée non-nécessaire sur le plan opérationnel doit par la suite rester accessible (pour des questions de conformité ou d’analyse…) et être stockée de manière sécurisée.

La suppression de la donnée doit elle aussi être encadrée. Les données obsolètes ou en doublon seront ainsi supprimées en toute sécurité et dans le respect des politiques en vigueur.

La data étant collectée et générée en continu dans le SI, plusieurs de ces phases peuvent avoir lieu en parallèle. Grâce à l’automatisation du traitement, chaque jeu de donnée suit un parcours cohérent, de sa collecte à sa suppression.

On notera que par ces étapes de traitement, le DLM se distingue de l’ILM (Information Lifecycle Management), avec lequel il est souvent confondu. Alors que le DLM traite les données selon des attributs généraux (type, taille, date de création), l’ILM agit à un niveau plus micro et assure l’exactitude des jeux de données de chaque fichier. Les deux solutions ont une action complémentaire et permettent, chacune à leur niveau, d’aller plus loin dans la qualification de la donnée.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Notre vision chez Blueway : les enjeux autour de la donnée impliquent de considérer les flux de données sous toutes leurs dimensions !

Chez Blueway, nous avons la conviction que les opérations nécessaires à la qualité des données doivent être automatiquement mises en œuvre dès la collecte pour partager une donnée de référence unique. Dans bien des cas, la data est contrainte par des enjeux techniques ou selon les silos applicatifs ! Les doublons et interprétations diverses sont autant de freins à la performance : il est donc crucial d’apporter aux métiers une vision unifiée de la donnée, tout en étant adaptée à leur prisme spécifique.

Dans l’élaboration d’un point de vérité unique, les responsables métiers ont un rôle fort à jouer. La démarche de DLM doit en effet s’accompagner de règles de gestion plus proches des besoins métier, et qui traiteront efficacement la data à la source. Impliqués dans la démarche, les utilisateurs deviennent alors acteurs du cycle de vie des données.

Mais au-delà de la seule qualité de la donnée, les questions de circulation dans le SI et de valorisation ont-elles aussi leur importance ! L’accessibilité à la donnée et son enrichissement, ne peuvent en effet être optimisés qu’en considérant les flux de données sous toutes leurs dimensions.

Outre le module Data Governance et son référentiel unique (Master Data Management), qui permettent une mise en œuvre plus efficace des phases du DLM, la plateforme Blueway inclut des modules de transport (bus applicatif, iPaaS) et d’accessibilité par les métiers (BPM). Combiner ces trois visions complémentaires permet de véritablement mettre à profit la donnée et d’en garantir le bon traitement tout au long de son cycle de vie !

Vous souhaitez mettre en place des solutions pour piloter votre Data LifeCycle Management ?

Au plaisir d’échanger !

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Comment moderniser son SI grâce à l’ESB ?

Le webinar Blueway du 23 juin 2022 a mis à l’honneur la société RTD, grossiste en matériel informatique, multimédia et électroménager, et l’intégrateur 4CAD. Sébastien Valgresy pour RTD, et Kevin Detrivière pour 4CAD ont présenté la manière dont le Système d’Information a été modernisé en profondeur grâce au module ESB (Enterprise Service Bus) de Blueway. L’occasion de mieux comprendre en quoi le bus applicatif peut accélérer l’intégration de données et simplifier les processus.

Pour quels besoins l’ESB a-t-il été choisi ?

Le cas de la société RTD met en lumière le problème de la communication point à point. Encore très répandu dans tous les secteurs, ce mode de communication applicatif ne fait que s’ancrer davantage dans les pratiques à mesure que le nombre d’applications augmente.

Pour RTD comme pour les autres utilisateurs, la conséquence est un manque de maîtrise et de compréhension globale des flux de données (différences de langage, type et ordonnancement des flux…). En choisissant une solution d’urbanisation des flux, l’objectif de RTD était de mieux comprendre les erreurs et les problèmes de synchronisation au sein de son SI.

Les outils types que RTD et les entreprises de distribution doivent faire communiquer sont par exemple :

Recensement des données articles

Outil de recensement des données articles (X3)

Celui-ci reçoit les données produit et de gestion et les données de vente (devis, commandes, BL, factures).

Gestion de l’information produit

PIM

La facette marketing et e-commerce de la donnée. Le PIM dresse une liste exhaustive et enrichie des articles, et collecte des données connexes.

Agrégation des données produit

Agrégateur de données articles

Les informations logistiques (colisage, poids…) sous format PDF, ainsi que les photos et les descriptifs associés. L’agrégateur identifie les articles connexes pouvant être recommandés au client.

Données site marchand

Site e-commerce

Les données à afficher sur le site sont nombreuses : état des stocks, descriptifs produit, statut de commande…

La multiplicité des applications par lesquelles transite la donnée produit le montre : repenser et automatiser les interconnexions est nécessaire pour mieux maîtriser ses flux, et donc sa performance.

« Faire circuler, parmi toutes les applications clés, une donnée produit actuelle est un enjeu fort. Le changement de modèle de données, opération complexe et longue, doit être facilité au maximum pour tous les utilisateurs. »

Thomas Rivière

Webinar retour d’expériences Client : RTD

Les réponses apportées par la solution ESB pour moderniser son Système d’Information

La solution d’Enterprise Service Bus permet de passer rapidement d’une communication en silos à des échanges ouverts, clairs et en temps réel. Couplé à l’ETL, pour le séquençage du traitement de gros volumes de data, il permet de fluidifier efficacement les échanges de données.

À la suite du déploiement de sa solution, RTD a constaté les évolutions suivantes :

AVANT

Avant déploiement de l’ESB

Echange de fichiers individuel/point-à-point, avec nécessité de transcoder vers le langage parfois complexe de l’application cible

Mobilise le département IT et oblige parfois à faire l’impasse sur des sujets

Désynchronisation de l’information entre les systèmes : de l’ERP au site e-commerce, l’information n’est pas identique et actualisée

Nécessite une action manuelle fréquente pour identifier et solutionner les problèmes

Manque de visibilité et de maîtrise générale sur les flux

APRES

Après déploiement de l’ESB

Echanges presque exclusivement via API, avec construction de demi-connecteurs pour chaque application

Dès la création, tout nouvel article entraîne la création automatique d’un webservice et la descente de l’info vers la solution Blueway (création dans le PIM)

Architecture de processus compréhensible par tous

Instantanéité de l’information, actualisation presque en temps réel

Supervision en temps réel, prise de recul et vision immédiate des anomalies

Dans le cas de larges parcs applicatifs comme celui de RTD, ce déploiement de l’ESB peut se faire de manière progressive, en priorisant les logiciels à intégrer. On conjugue ainsi familiarisation des collaborateurs avec l’outil et modernisation graduelle de l’architecture, au rythme des équipes.

La distinction ESB vs ETL n’a plus de sens face aux besoins métiers !

La modernisation du système d’information pour basculer vers l’entreprise étendue

L’expérience de RTD illustre la nécessité que connaissent beaucoup d’entreprises de moderniser leur SI pour répondre aux enjeux d’enrichissement de la donnée.

Beaucoup d’organisations multiplient en effet les environnements applicatifs et doivent pourtant garantir un niveau constant de performance dans un univers étendu, qui inclut les partenaires de travail.

Outre l’aspect d’intégration traité par l’ESB, il est donc nécessaire de traiter les autres facettes de cette modernisation du SI, telles que :

  • La coordination humaine
  • La qualité de la donnée
  • Les échanges avec les partenaires

Combiner l’ESB avec d’autres modules complémentaires permet de traiter la donnée sous chaque angle :

MDM

Référentiel de données ou golden data

Lorsque les données produit sont nombreuses et proviennent de sources variées, il est essentiel de s’appuyer sur une donnée de référence (ou golden data) qualitative et traçable pour piloter l’activité.   La fonction du Master Data Management est aussi bien curative (mettre l’existant en conformité avec les standards de qualité choisis par l’entreprise) que préventive (toute l’information qui intègre le SI est déjà mise en forme par les outils de saisie)

APIM

Gestion des API et entreprise étendue

Ouvrir son SI aux partenaires, qu’ils soient clients ou fournisseurs, c’est partager toute l’information utile tout en gardant la maîtrise de la confidentialité des données.   L’API Management apporte de la maîtrise quant à la consommation de données et permet éventuellement de monétiser cette consommation.

BPM

Humain et modélisation des processus

Le BPM traite la facette humaine de la donnée. Ce module fournit des outils pour bien adresser les processus et sortir de l’utilisation d’Excel et des outils de messagerie peu sécurisés. Le développement en low-code est un atout pour la convivialité : des écrans, portails et formulaires paramétrables à la souris permettent de modéliser comme vous le souhaitez.

« Des outils de qualité doivent permettre à la fois de limiter l’atomisation de la donnée et de constituer un « golden record » sur lequel appuyer vos décisions en toute confiance. »

Les modules développés par Blueway peuvent être mis en place indépendamment et progressivement pour une modernisation sur mesure du Système d’Information. Grâce à la forte adhérence des modules au SI et à leur homogénéité, l’offre Blueway permet de se projeter dans le temps, selon la croissance et les besoins futurs.

Vous souhaitez échanger sur vos enjeux de modernisation de votre SI ? Prenez contact avec nous !

Au plaisir d’échanger !

Comment superviser ses flux de données ?

La bonne circulation de la donnée dans le système d’information est aujourd’hui un impératif pour alimenter correctement les métiers, les applications et les processus qui forment le cœur de l’activité de l’entreprise. Face à la multitude de sources de données et la complexité croissante des SI (parc applicatif en extension, architecture hybride, multiplication des flux…), une supervision complète est indispensable. Celle-ci permet de garantir la bonne santé du SI, colonne vertébrale des échanges métier et source de qualité et d’efficacité des processus.

L’importance des flux de données au sein du Système d’Information

Les données alimentent l’ensemble de l’entreprise et ses équipes métiers : les problèmes qu’elles rencontrent durant leur acheminement et leur transformation peuvent donc rapidement se révéler critiques pour l’organisation. Ces problèmes peuvent aussi bien être dus à des faiblesses matérielles (pannes, coupure de courant…) qu’à un mauvais traitement de la donnée (existence de doublons, données incomplètes ou dégradées par les utilisateurs successifs, les transferts ou les transformations…).

La data doit non seulement circuler sans interruption entre tous ses producteurs et consommateurs (collaborateurs, applications, outils de BI, data lakes…), mais son intégrité doit aussi être assurée. S’appuyer sur des données intègres participe à la performance de l’entreprise au quotidien, ainsi qu’à la conformité de la data aux exigences du secteur.

Il est pour cela nécessaire de prendre de la hauteur sur son SI en bâtissant une vision globale des flux d’information. Disposer d’une vue 360° de la circulation des données au sein du système d’information permet d’analyser le cycle de vie de la donnée et sa qualité.

L’urbanisation et la supervision des échanges sont ainsi essentielles pour identifier les flux critiques et être informé en temps réel des dysfonctionnements existants ou potentiels. En cartographiant les flux d’informations et en industrialisant les échanges inter-applicatifs, l’organisation pourra continuer à tirer parti de ses applications – récentes ou legacy – et optimisera les échanges avec l’écosystème des partenaires.

Matrice d’exigences :
Pour votre projet de plateforme d’intégration
de données

La supervision des flux de données directement liée au besoin d’urbanisation


Du service IT aux instances décisionnelles, la compréhension des flux de données et des besoins des processus métiers sont les clés d’un bon pilotage. L’information doit remonter dès que nécessaire, sans dégradation, vers les consommateurs qui en ont besoin. Une démarche rendue plus complexe encore par l’hybridation croissante des systèmes, qui tentent de concilier applications Cloud et on-site. Comprendre dans le détail la logique de ses flux et mieux les orchestrer est donc essentiel pour soutenir toute démarche d’urbanisation.

Plusieurs solutions apportent de la visibilité sur le trajet interne de la data.
Les diagrammes de flux de données, notamment, constituent une bonne introduction à la supervision. Les solutions liées à l’urbanisation et à l’intégration de données sont également nombreuses. Comme ce thème a déjà été abordé dans de précédentes articles (comme urbanisation du SI et architecture hybride et urbanisation du SI au sein d’une coopérative agricole) : nous nous concentrerons dans la suite de cet article sur la facette de supervision des flux.


En effet, la supervision des fluximplique de déployer des fonctions spécifiques de visualisation, d’alertes et d’analyse volumétrique. On contrôle ainsi le déroulement complet des flux et les tendances de consommation de la donnée. Le pilotage opérationnel repose sur des indicateurs tels que :

  • La volumétrie de la data circulant entre les applications
  • La criticité des flux impliqués
  • Le nombre d’applications participant aux échanges
  • La disponibilité de ces applications
  • Le temps de réponse des flux

Ces fonctions sont complétées par des alertes et tableaux de bord, qui contribuent à une résolution préventive des erreurs. On bénéficie alors d’un quadruple avantage :

Synthèse des flux

Vue d’ensemble des flux

La vue synthétique et en temps réel sur les flux est source de transparence et de maîtrise des flux à tout instant.

Anticipation

Anticipation des correctifs

La supervision fournit des outils pour prioriser les actions correctives et éviter l’aggravation des anomalies.

Réactivité

Réaction immédiate aux problèmes

Agir vite face aux problèmes permet de limiter toute perte de données (et plus largement, financière), mais aussi d’améliorer les conditions de travail des collaborateurs métier.

Productivité

Pilotage et décisions grâce à la supervision des flux

En pilotant les flux et en corrigeant les erreurs à temps, on coordonne mieux la communication inter-applicative et on conforte la confiance des utilisateurs envers leurs données.

Projet d’urbanisation du SI :
n’oubliez pas d’intégrer des activités humaines !

Data Foundation, la plateforme Blueway pour une supervision unifiée des flux

Face à l’enjeu de supervision des flux, Il est important de traiter toutes les dimensions de la donnée. C’est pourquoi la solution Data Foundation de Blueway vous permet de réaliser toutes les actions nécessaires sur vos données au sein d’une plateforme unique et fournit également des outils de supervision grâce à une console de pilotage native.

Data Foundation pilote à la fois les règles de transformation et de consommation de la donnée, la maîtrise du cycle de vie des données, leur mise en qualité, le monitoring des traitements et l’analyse des dépendances et impacts :

Collecte des données

Rapatriement des données

Vous rapatriez toutes les données de votre SI (On Premise, Cloud privé et public…), quelles que soient les possibilités disponibles (XML, webservices, FTP, API REST…).

Consommation et transformation

Gestion et traitement des flux

Transformation, transcodification, enrichissement aussi bien que règles de gestion : vous pouvez opérer tous les traitements nécessaires au sein d’un éditeur graphique et Low Code.

Déversement et exposition

Circulation et exposition des données

La donnée peut être exposée en toute sécurité au sein du SI dans une logique SOA ou déversée dans les applications cibles définies. La communication, synchrone ou asynchrone, est assurée entre toutes les entités du SI.

Vue d’ensemble et réactivité

Vue globale des flux et anticipation

Quels sont les traitements en cours ? Ceux en échec ? Les causes ? La supervision complète des flux s’accompagne d’alertes et d’informations précieuses pour localiser rapidement les dysfonctionnements.

Avec les fonctionnalités de supervision de la donnée de Data Foundation, Blueway a souhaité concilier temps réel et vue à 360°. Le système de déclencheurs de la plateforme permet une mise à jour constante et proactive de vos flux en fonction des événements, tout en adoptant une stratégie à long terme pour l’évolution de votre SI.

En combinant Data Foundation avec les modules complémentaires d’orchestration des processus (BPM) et de centralisation de la data (MDM), Blueway permet une maîtrise complète de la circulation des données sous ses facettes métiers et techniques !

Vous souhaitez renforcer la supervision des flux de données au sein de votre SI ? Echangeons !

Au plaisir d’échanger avec vous!

Pour assurer la réussite d’un projet de Master Data Management, il s’agit de procéder avec méthode et rigueur. Entre bonnes pratiques de gestion de projets IT, compréhension des enjeux du MDM et prise en compte des impacts sur la gouvernance de la donnée, les écueils sont nombreux !

Le MDM a vocation à devenir le point de vérité de l’information pour toutes les applications du système d’information; c’est donc un projet structurant impliquant de la conduite du changement et une vision transversale au niveau de l’organisation. Ainsi, on ne mène pas un projet de Master Data Management comme on piloterait un projet de GED (Gestion Electronique de Documents), de PIM (Product Information Management) ou de DAM (Digital Asset Management). Quelle est la cartographie des données du Système d’Information ? Quelles données faut-il intégrer et en provenance de quelles applications sources ? Quels sont leurs niveaux de fiabilité et de qualité ? Comment anticiper les évolutions de l’organisation qui impacteront le Master Data Management dans les années à venir ?

L’infographie synthétisant les 10 mauvaises pratiques pour rater son projet de Master Data Management est disponible après le contenu texte.

Découvrez le TOP 10 des mauvaises pratiques :

01. Vouloir tout construire et brancher d’un coup

Le pire ennemi d’un projet MDM (Master Data Management) consiste à vouloir tout construire et tout brancher d’un seul coup ; la fameuse approche OFF/ON. Cette approche entraîne des effets dévastateurs par un effet tunnel évident et par l’absence d’un rodage des processus de gouvernance.
Il faut au contraire encourager l’itérativité et l’agilité pour adapter le référentiel et l’organisation.

02. Appréhender le projet MDM comme un sujet purement technique

Un projet MDM est un projet d’entreprise et non un projet IT. Il ne peut se limiter à une centralisation technique de données, il doit permettre l’obtention et la maintenance d’un point de vérité unique.
Pour cela, les acteurs métiers doivent être totalement impliqués dans le programme dès son initialisation pour garantir la valorisation du capital data.

03. Reporter le sujet de la qualité de données à « plus tard »

L’itérativité doit être pertinente ; il est préférable de progresser périmètre par périmètre, mais en s’imposant la construction d’un socle fiable étape après étape.
L’acceptation d’un tel programme se trouve dans l’amélioration et la confiance de la qualité des données fournies et non à la vitesse de construction d’une base de données.

04. Faire abstraction de la diffusion de l’information dans le projet MDM

Un programme de gestion des données de références a du sens si et seulement si il est exploité. Il est donc crucial de ne pas omettre la notion de branchement au SI, et éventuellement à un écosystème partenaire. L’usage d’un bus d’entreprise (ESB) ou d’un portail d’API (API Management) démultiplie le ROI d’une telle initiative.

05. Ne pas rattacher ce projet MDM aux enjeux réglementaires

Il est commun de dissocier le réglementaire de la gestion des données d’une organisation, ne serait ce que par un découpage naturel du cadre de responsabilité. Pour autant, un référentiel de données maîtres simplifie grandement la mise en place et le respect d’un grand nombre de réglementation. On peut par exemple identifier l’importance des axes de ventilations dans un contexte bancaire (Bale) ou assurance (Solvency), et bien sûr la maîtrise des données sensibles avec la GDPR.

06. Imposer le changement porté par le projet MDM sans l’accompagner

Un projet MDM ne s’impose pas, il se construit collectivement. A l’instar de la mise en place de tout processus, les collaborateurs doivent comprendre le sens et l’intérêt commun de l’organisation. L’accompagnement au changement est une composante essentielle de projet MDM réussi.

07. Faire abstraction du cycle de vie des données de références

Les données d’une organisation dispose d’un cycle de vie qu’il ne faut pas omettre, ce cycle est souvent révélateur de qualités ou de dysfonctionnements. La définition d’une gouvernance adaptée doit répondre à une transition maîtrisée et juste. Un programme MDM (Master Data Management) ne doit pas porter le fardeau d’une refonte organisationnelle de vos processus, il doit en être le catalyseur.

08. Mélanger les genres : PIM/CRM/BAM/MDM

Le marché de la gestion des données est riche, voir déconcertant dans certains cas. Pour garantir un choix juste, il convient de bien définir les objectifs de votre organisation et le cadre que vous souhaitiez lui donner. L’identification de la solution idoine découlera naturellement de cette étape initiale et vous permettra de passer outre les « grandes tendances » du marché.

09. Oublier l’histoire des données

Les données d’une organisation ont une histoire passée qu’il faut intégrer durant la conception et la préparation des données pour leur reprise initiale. La mise en qualité des données repose donc sur un profilage de qualité, permettant d’adapter les traitements d’acquisition, de redressement et d’enrichissement des données. Il est nécessaire de prendre en compte cette histoire pour garantir l’amélioration continue des données.

10. Isoler le projet MDM

De par sa nature « référentielle » un projet MDM a vocation à fournir une information de qualité pour tout autre projet, en tant que point de vérité.
Il est donc essentiel de synchroniser la construction d’un référentiel avec les autres projets pour éviter les redéveloppements et simplifier l’intégration du référentiel.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Infographie : TOP 10 pour rater son projet de Master Data Management - Les enjeux du MDM !

Vous avez une question, une remarque ou vous envisagez de vous équiper d’un MDM ? Contactez-nous, nous vous accompagnerons !

Exemples d’optimisation continue SaaS des processus

Un des principaux objectifs des dirigeants est évidemment de soutenir la croissance de l’entreprise.

Dans une économie en mutation permanente, l’entreprise doit pouvoir s’adapter rapidement et optimiser le fonctionnement des structures existantes : diversification d’activités, réorganisation, rationalisation de processus… Pour mener ces ajustements, les dirigeants rencontrent malheureusement d’importants freins qui en limitent la portée des bénéfices.

Quel est l’intérêt d’une optimisation continue des processus pour la direction ?

Performance, excellence opérationnelle et optimisation des processus

L’optimisation des processus fait partie de la démarche d’excellence opérationnelle dont le principe est de systématiser et méthodiser l’amélioration continue de la productivité, la qualité, la réduction des coûts au service de la performance de l’organisation. Cette quête permanente de valeurs ajoutées implique en particulier la meilleure coordination humaine possible et l’analyse en continue des résultats ! Elle requiert donc de mettre l’accent sur les processus et de penser de façon systémique. Ainsi, la prise en compte de la transversalité des processus et de l’interconnexion entre les différents services de l’entreprise fait partie du socle de la démarche, et fait écho à l’une de nos convictions : les processus métiers ne doivent pas être silotés et contraints par les périmètres applicatifs du système d’information. C’est la vision métier, transversale, et donc l’efficacité qui doivent primer !

Pourquoi mettre en place une amélioration continue des processus ?

Plus spécifiquement, optimiser les processus métiers de l’entreprise repose sur l’amélioration de chaque processus, de la vision la plus globale (circuit…), jusqu’à chacune des étapes et chacun des éléments qui les composent (qui, quoi, quand, comment).

En tant que dirigeant, c’est pour vous un axe de productivité et de profitabilité :

  • réduction des coûts (production, achat…)
  • satisfaction des équipes internes par leur valorisation (moins de tâches sans valeur ajoutée…)
  • Meilleure intégration et création de valeur avec l’entreprise étendue (partenaires, sous-traitants, clients…)
  • Progression de l’image de marque grâce des temps de réponse et une qualité améliorés

Mais c’est aussi le moyen de gagner en vision stratégique, et en capacité d’actions au niveau de l’organisation de l’entreprise grâce à la consolidation et l’analyse d’une multitude d’informations internes et externes. De plus, l’identification des processus et leur maîtrise offrent une meilleure capacité d’adaptation, et rend ainsi votre entreprise plus agile.

Pourquoi la digitalisation des processus est loin d’être un sujet dépassé ?

En quoi consiste l’optimisation des processus d’entreprise pour la direction ?

Les grandes étapes pour optimiser les processus au niveau de l’entreprise sont classiquement :

  • La cartographie des flux d’informations dans votre entreprise et avec l’extérieur. Il s’agit en quelque sorte d’un diagnostic de vos processus actuels, de ce qui fonctionne, de ce qui doit être amélioré, de ce qui doit être revu complètement, etc.
  • La modélisation des processus au niveau métier c’est-à-dire sans se restreindre à des services ou à cause de contraintes IT. La collaboration entre tous les départements métier concernés et les services IT est critique pour la réussite de cette étape.
  • L’identification des axes d’optimisation sur chacun des processus et la mise en place de toutes les automatisations possibles. Le rôle de l’humain ne doit pour autant pas être négligé : il faut le concentrer là où il a de la valeur !
  • La mise en œuvre des processus, au sens informatique et conduite de changement en interne. En effet,  l’optimisation des processus d’entreprise fait évoluer l’organisation et il faut accompagner et former les personnes concernées.
  • Le contrôle, l’amélioration continue et la supervision.  Avoir une vision précise des résultats attendus et des indicateurs à suivre est le meilleur moyen d’avoir un réel retour sur investissement.

En résumé, il faut modéliser le processus optimal, automatiser ce qui peut l’être, organiser les actions, responsabiliser les intervenants et superviser ! Si cette vision semble technique, l’optimisation des processus est aussi un des leviers de la conduite au changement et doit intégrer le facteur humain !

Des points d’attention à surveiller dans votre démarche d’optimisation des processus

Certains points d’attention sont en particulier à surveiller comme la sur-validation : remettre à plat les processus entraîne parfois le souhait de tout valider, le nécessaire et le non-nécessaire, entraînant alors des goulots d’étranglements. La remise en cause de l’existant est également importante : dématérialiser ne corrige pas les défauts de modélisation ! Les dysfonctionnements doivent aussi, autant que possible, être anticipés : que se passera-t-il en cas d’absence d’un collaborateur ? Si une des données saisie est erronée ? Il faut penser à la mise en pratique dans le monde réel et ne pas se limiter à la théorie !

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Exemples les plus courants d’optimisation continue du fonctionnement de l’entreprise

En premier lieu, un exemple d’optimisation courant est d’agir sur le manque de communication entre les différents applicatifs de gestion déployés au sein de l’entreprise (ERP, CRM, SCM, GMAO, GED, etc.) ainsi qu’avec les partenaires (qu’ils soient opérationnels ou dans le cas d’une filiale, la mise à jour du reporting groupe). Ce manque de cohérence dû au fonctionnement en silos des différents applicatifs et, par extension, des processus métiers qui y sont liés gêne les interactions productives entre les différents services.

En second lieu, les dirigeants manquent cruellement d’une visibilité réelle sur la performance des processus en place. C’est pour cette raison que la plateforme Blueway intègre nativement les fonctions nécessaires de supervision et de pilotage des processus métiers pour démarrer une démarche d’amélioration continue et ainsi viser les objectifs d’excellence opérationnelle des dirigeants.

Quels gains et quelles solutions d’optimisation pour le bon fonctionnement de l’entreprise ?

Pour gagner en agilité, les processus métiers peuvent être modélisés de manière graphique et intuitive dans notre logiciel BPM par les responsables métier et informatique qui peuvent ainsi enfin travailler de façon collaborative.

Pour une excellente visibilité sur le fonctionnement de l’entreprise, les dirigeants peuvent accéder dans le module Process Governance à des statistiques paramétrées spécifiquement pour eux afin de contrôler le bon fonctionnement des processus métiers grâce au suivi de ses indicateurs de performance. Lorsqu’une anomalie apparait, des alertes sont diffusées en temps réel aux administrateurs qui peuvent simuler rapidement des scénarios de résolution avant de modifier les processus concernés.

L’optimisation en continue de la performance des processus métiers a eu un impact mesurable dès les premiers mois avec une hausse significative des marges dégagées. Cela permet de garantir un ROI (Retour sur Investissement) inférieur à un an.

Vous souhaitez échanger avec l’un de nos experts sur l’optimisation de vos processus ?

Autres bénéfices d’une démarche intégrée d’optimisation des processus pour améliorer le fonctionnement de l’entreprise

La plateforme intégrée d’optimisation des flux Blueway prend tout son sens pour adresser vos objectifs en tant que dirigeant grâce à ces nombreux avantages, dont :

  • Meilleure intégration des données entre les applicatifs existants pour éviter les pertes de temps.
  • Augmentation de la qualité des données pour une meilleure performance des équipes.
  • Accès à la bonne information au bon moment grâce à l’intégration des données de votre entreprise (données de références aussi bien que Big Data) pour une meilleure intelligence collective.

Avec Blueway, les dirigeants ont enfin tous les outils en main pour piloter l’entreprise ! Rencontrons-nous pour échanger autour de vos enjeux de digitalisation et d’amélioration de vos processus, et partager des retours d’expérience !

HubEE : service public

Synthèse du webinar Blueway & CD56 : comment réussir le passage à HubEE pour les acteurs du service public ?

Lors du webinar du 29 septembre 2022, Blueway a donné la parole au Conseil Départemental…

SDIS : Améliorer son Système de Gestion Opérationnelle en 5 points

Le contexte des SDIS (Service Départemental d’Incendie et de Secours) est loin d’être…

Plateforme omnicanal : les solutions

Retail : la stratégie omnicanal ne peut pas se passer du DSI !

La grande distribution subit de plein fouet l’impact du digital. Pour rester dans la course…

BPM : gagnez du temps de travail

Récupérer 3 semaines de travail grâce au BPM

Il reste encore des efforts à fournir pour optimiser le temps de travail des…

Choisir un logiciel workflow : quels critères retenir ?

Quel logiciel de workflow choisir pour automatiser vos processus ?

Gérer un flux de travail (la traduction de workflow) consiste à coordonner un ensemble…

BPMN 2.0 : décryptage Business Process Model and Notation

Qu’est-ce que la norme BPMN 2.0 (Business Process Model and Notation) ?

Les personnes qui interviennent sur chacun des processus de votre organisation sont nombreuses…

Comment choisir le meilleur logiciel BPM ?

Piloter ses processus pour répondre aux enjeux des métiers et de la donnée : comment choisir le meilleur logiciel BPM pour votre organisation ?

Comment choisir un logiciel BPM (Business Process Management) adapté à son organisation sans…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Gestion des données de référence : réussir son projet MDM

Dans un contexte d’internationalisation, les organisations sont amenées à vivre de grandes transformations, des réorganisations, des fusions complexifiant un Système d’Information déjà fragmenté. Pour mettre de l’ordre et rendre évolutif son architecture, les urbanistes ou architectes informatiques ont donc bâti des référentiels dans une démarche SOA (data + flux + processus) afin de permettre la gestion des données de référence.

Ces référentiels répondent également à des enjeux business :

  • De nombreuses réglementations autour de la donnée demande toujours plus de transparence et de justification
  • L’environnement compétitif impose de toujours avoir un temps d’avance par rapport à la concurrence et donc de pouvoir prédire, anticiper pour concevoir de nouvelles offres et satisfaire les clients ET les actionnaires
  • Les entreprises sont plus que jamais « customer-centric », ce qui implique de disposer de données à jour, pertinentes sur ses clients, de pouvoir les recouper et les partager sur différentes applications et à différents métiers en interne ou en externe.

Qu’est-ce qu’une donnée de référence ?

Les entreprises ont désormais les moyens de stocker une volumétrie de données impressionnante. Dans ce flot de data, certaines données traversent les processus métiers et sont de ce fait partagées au sein des grandes applications verticales de l’entreprise : les ERP (Entreprise Ressource Planning), les CRM (Customer Relation Management), les PLM (Product Lifecycle Management), les WMS (Warehouse Management System), les PIM (Product information management), les logiciels liés à la comptabilité… Cependant, limiter leur partage au sein de ces applications verticales nuit à la transversalité des informations dans l’organisation. Les processus métier réels ne s’arrêtent pas aux frontières des applications verticales !

La question à se poser est la suivante : quelles sont les données les plus importantes, les plus critiques mais aussi les plus pertinentes et structurantes pour l’organisation ? C’est à dire les données qui font « référence » !

C’est ainsi que la notion de donnée de référence, donnée maîtresse ou data master est apparue en 2003 avec l’essor du Master Data Management (MDM).

Les données de référence peuvent être de diverses natures :

gestion des données de référence produit

Les données Produits comme dans le secteur du retail ou du manufacturing élargies à l’offre de services

pilotage des données de référence tiers

Les données Tiers liées aux clients et aux fournisseurs

management des données de référence de l’organisation

Les données sur l’organisation, les salariés

Gestion des informations financières de référence

Les informations financières

Exemples de données de référence

Les données de références sont majoritairement des données statiques ou relativement stables dans le temps, qui vont être actrices ou sujettes des processus, plutôt que les données transactionnelles ou les données calculées.

D’origine interne ou externe à l’organisation et de types « Maîtres » , « constitutives » ou « paramètres », elles concernent le plus souvent les clients, les produits, services ou articles, les fournisseurs et les ressources humaines. Elles peuvent être organisées au travers de relations hiérarchiques et sont généralement utilisées dans plusieurs applications du Système d’Information ainsi que par différents services métiers et domaines fonctionnels. Le prix d’un produit, la référence article, le code postal client, le propriétaire ou la devise sont quelques illustrations !

Une fois identifiées, l’enjeu est alors de créer un référentiel maître centralisé afin de permettre une démarche d’amélioration continue de la qualité, la traçabilité des modifications et la reconstitution d’un référentiel à date.

5 conseils pour bien gérer vos données de référence

Avant de mettre en œuvre votre Master Data Management, il convient d’analyser les axes d’évolution de votre référentiel :

  • Finalité de la démarche
  • Niveau de complexité
  • Stabilité du système
  • Nature des objets manipulés

L’état des lieux doit également prendre en compte la volumétrie des données et leur criticité, les applications sources et cibles ainsi que les processus et règles métiers impactant la qualité des données. Quelles sont les consolidations à prévoir si les sources sont multiples ? Comment l’évolution de l’entreprise va impacter ces données structurantes ?

Il s’agit ensuite de définir des règles de gestion et d’administration de ce référentiel à savoir qui valide les données, qui arbitre en cas de litige, quels sont les droits attribués à chacun et quelles sont les modalités de diffusion des informations contenues dans le référentiel.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Suivez maintenant ces 5 étapes pour bien mener votre projet de gestion des données de références (GDR):

1 – Mesurer la qualité des données de références

La qualité d’une donnée s’évalue en fonction de l’usage attendu avec trois approches possibles : l’approche orientée objectif, l’approche orientée traitement et l’approche orientée sémantique.

Pour mesurer la qualité de données maîtres, on s’attachera aux aspects suivants : le profilage, la complétude, la redondance et l’homogénéisation référentielle,

2- Trouver les bons indicateurs

Les indicateurs peuvent porter sur les performances (économies de saisie, meilleure productivité, accroissement des SLA, raccourcissement des cycles…) ou sur l’impact du MDM sur l’organisation du SI, l’implantation de nouvelles briques, la gestion des processus métier…

3 – Fixer un périmètre à la gestion de vos données de référence

Il est maintenant temps de de définir les grandes étapes qui vous mèneront à l’atteinte de vos objectifs. Pour chaque lot de votre projet, il sera important d’impliquer les métiers tout autant que le service informatique afin de valider la faisabilité tant en ressources humaines que technique :

  • Le nettoyage des données
  • L’importation et initialisation du MDM
  • L’interopérabilité du MDM avec les applications sources et cibles de votre SI.
  • La mise en œuvre et l’évolution du MDM

4 – Initialiser les données cibles

L’initialisation du référentiel constitue la première grande étape de la mise en œuvre. Il est possible de remplir ce référentiel au fil de l’eau, au fur et à mesure des entrées ou mises à jour des données, comme il est possible de l’initialiser en rentrant le plus grand nombre d’informations possibles dès sa construction.

Dans tous les cas, la création du référentiel nécessite :

  • La définition et la création de la base de données d’accueil
  • La création et l’instanciation des règles de contrôles et de validation lors de la création des enregistrements
  • La création des règles et dictionnaires de transcodage
  • Le chargement des données qui vont constituer le socle du référentiel

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

5 – Faire vivre son référentiel et prévoir son interopérabilité avec le Système d’Information

Le référentiel doit vivre, évoluer, être mis à jour de façon continu afin de devenir la référence de l’entreprise et le support clé de la gouvernance des données de l’organisation. Pour cela, la qualité des données doit être assurée au lancement du projet et les efforts pour la maintenir doivent être poursuivis en permanence ! Il est donc important de bien définir :

  • L’instanciation des règles de contrôles et de validation lors des mises à jour
  • La mise en œuvre des règles d’historisations des enregistrements
  • La mise en place des règles de suppression
  • La mise en œuvre des politiques de sécurisation d’accès à l’information

Au-delà de ces quelques éléments, il convient de ne jamais perdre de vue qu’un projet MDM va manipuler un grand nombre de données, que les règles de référencement et d’historisation des données manipulées peuvent rapidement s’avérer génératrice de volumétries importantes.

Si votre système d’information le permet, vous pourrez constituer une architecture orientée service et publier des Web Services qui garantiront l’accès aux données ainsi que leur mise à jour.

Pour outiller votre gestion des données de référence, l’approche que nous vous proposons au travers du module de Data Governance de la plateforme Blueway se veut simple et pragmatique. Nous savons de plus que la gouvernance des données ne se limite pas au Master Data Management ! La capacité de dialoguer avec les autres applications du Système d’Information, au lancement du projet mais également avec toutes celles qui viendront s’ajouter par la suite, est essentielle. Les données doivent également vivre et être mises à disposition des utilisateurs selon leurs processus métiers, qui ne doivent pas être cloisonnés aux applicatifs. C’est pour cela que notre module de gestion des données de référence s’intègre au sein d’une plateforme incluant des solutions d’Enterprise Service Bus et de Business Process Management afin d’apporter une démarche à la fois Data ET Process.

Vous souhaitez en savoir plus ? Échangez avec nos experts : la Data Governance nous passionne depuis toujours !

Au plaisir de discuter avec vous !

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Maîtriser ses API

Exposer la donnée plus vite… mais toujours garder la main

Les échanges de données entre entreprises partenaires sont de plus en plus nécessaires. Et lorsque le volume de ces échanges augmente rapidement, apparaît le besoin de les industrialiser.
L’ouverture des données via les API est adoptée par un nombre croissant d’entreprises. Les API simplifient en effet les échanges avec les partenaires, et bénéficient finalement à tout l’écosystème : clients, sous-traitants, fournisseurs… Mais cette ouverture ne peut se faire sans stratégie : elle nécessite une normalisation et un pilotage précis pour devenir un levier de performance pour toutes les parties.

Lorsqu’elle est maîtrisée et simplifiée, l’exposition des données s’accompagne de :

  • Une collaboration et un enrichissement mutuel des données par les parties prenantes
  • Un accès facilité à la donnée
  • La sécurisation des données et des services exposés grâce à des accès et des normes
  • La gestion de l’exposition des données tout au long de leur cycle de vie
  • La capacité à proposer des services à valeur ajoutée

Utilisateurs majeurs des API, les partenaires de l’écosystème et leurs développeurs doivent pouvoir évoluer en toute autonomie. Côté entreprise, on cherchera en tout temps à connaître le périmètre de consommation de chacune de ses API, à en contrôler la qualité et la facilité d’accès et à sécuriser les échanges.

Bien comprendre le portail API

Le portail API joue un rôle de centralisation, pour l’entreprise comme pour ses partenaires. En réunissant l’ensemble des API de l’entreprise en un seul point, il facilite la gestion des connexions et de l’exposition des données. Pour les développeurs, le portail donne accès à toute une gamme d’API, dont on suivra facilement la consommation tout au long de leur cycle de vie grâce à des tableaux de bord adaptés. Le portail API facilite la connexion et apporte des informations clés pour l’intégration, mais permet également aux développeurs de sélectionner leurs API en toute autonomie. Grâce au confort d’utilisation du portail, les développeurs et partenaires sont plus engagés et performants.

Le portail API fournit aux développeurs une palette de services disponibles et sécurisés : accès à un catalogue d’API, possibilité de les tester et de les consommer selon le besoin, mais aussi contact étroit avec d’autres développeurs et accès à de bonnes pratiques simplifient l’ensemble de la démarche. Les API s’apparentent alors à des produits, très simples à sélectionner et à déployer pour des développements sur mesure.

L’API Management, la pierre angulaire de la transformation numérique.

API Management et Portail API : positionnement et avantages

Le portail API fait lui-même partie d’une solution plus globale : l’API Management. Une plateforme qui permet d’administrer à la fois les diverses API utilisées, mais propose aussi un environnement complet pour les tests, le stockage d’éléments contractuels et le suivi des consommations.

L’API Management permet de maîtriser les API durant leur cycle de vie et offre une vue claire sur la consommation qui en est faite. La solution contribue à une expérience plus qualitative pour les partenaires de l’écosystème. Pour l’entreprise, l’API Management est gage de sécurité des données. Sécurisation du traitement des données, protection des environnements de test, contrôle constant du respect des SLA… la volumétrie des échanges va de pair avec un contrôle rigoureux de l’exposition.

L’API Management sert à la fois les besoins des partenaires et ceux de l’entreprise :

Avantages partenaires du Portail API

Partenaires

  • Information complète sur les API consommées et les statistiques, accès simplifié aux tokens
  • Environnements de test sécurisés
  • Grande disponibilité des environnements et services évolutifs
  • Possibilité d’exploiter une forte volumétrie de données
  • Espace d’autonomie et d’échange pour les développeurs, information complète pour un bon déploiement des API  
Avantages entreprise du Portail API

Entreprise

  • Monitoring global de toutes les API
  • Maîtrise de la consommation et de la santé technique des API
  • Facilité à créer à la souris des bouquets d’API sur mesure pour chaque partenaire
  • Ouverture des données simplifiée et rapide
  • Sécurisation des échanges, des traitements des données et des environnements de production

L’APIM répond ainsi aux problématiques de la majorité des organisations privées comme publiques. On citera à titre d’exemple les collectivités souhaitant ouvrir leurs données à des startups sources d’innovation, les distributeurs devant échanger en temps réel avec leur réseau de transporteurs, ou bien les industriels ayant besoin de traiter l’information de multiples objets connectés.

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

La complémentarité entre ESB et APIM

Souvent évoqué pour ouvrir son Système d’Information vers l’extérieur, l’ESB est en réalité complémentaire à l’APIM.

Les deux solutions se sont peu à peu imposées aux entreprises dans la recherche d’une stratégie orientée services, et remplissent des rôles distincts et complémentaires :

  • Le bus applicatif répond essentiellement à une nécessité d’industrialiser les échanges inter-applicatifs et permet d’orchestrer les services du système d’information.
  • L’API Management répond à la gouvernance des échanges à destination de l’écosystème de partenaires

Ainsi, alors que l’ESB urbanise les échanges en interne et rend les applications plus communicantes, l’API Management permet la supervision des échanges avec l’extérieur via les API.

Ces deux solutions travaillent donc ensemble à l’industrialisation des échanges et de leur orchestration. L’ESB fluidifie la communication inter-applicative, et donc l’efficience en interne. Ce socle solide se combine avec l’API Management, qui apporte scalabilité et sécurité aux échanges avec les partenaires. Le résultat est une architecture agile, évolutive et scalable qui apporte de la valeur à l’entreprise et à son écosystème !

Vous souhaitez échanger avec l’un de nos experts autour des offres ESB et API Management ?

Au plaisir d’échanger avec vous !

MDM vs PIM : différences des logiciels

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies d’entreprises et la nécessité de se doter de solutions de type MDM (Master Data Management) ou PIM (Product Information Management) pour en tirer pleinement profit. L’adage de « la bonne information à la bonne personne au bon moment » n’a jamais été aussi pertinent.

Dans un monde où la maîtrise de la donnée devient essentielle pour contribuer activement à la stratégie de développement alors que les circuits de décision raccourcissent en permanence, DSI et directions métiers doivent travailler de plus en plus étroitement pour fournir des solutions fiables et sécurisées de gestion de l’information.

En effet, quel que soit votre secteur d’activité, vos clients, partenaires et collaborateurs sont désormais hyper connectés et auront de plus en plus besoin d’échanger des données en temps réel.

Autant vous organiser tout de suite pour valoriser vos données et constituer des référentiels au service des usages métiers, comme par exemple pousser des promotions personnalisées à vos clients basés sur l’analyse de leurs historiques d’achat, optimiser les flux logistiques via l’analyse de tous les déplacements grâce à l’IoT, etc. Les applications sont quasiment sans limite et toutes au service de la performance de l’entreprise.

Mais pour cela, les DSI doivent d’abord unifier toutes les données au sein de référentiels partagés qui faciliteront leur manipulation et leur diffusion sécurisée au sein de tout l’écosystème interne et externe. Les solutions MDM (Master Data Management) et PIM (Product Information Management) semblent répondre aux besoins mais quelles sont leurs différences ? Ou leur complémentarité ? Pourquoi mettre en œuvre l’une de ces deux approches ?

L’urgence de stopper l’anarchie dans la gouvernance des données !

Alors qu’il ne se passe pas une journée sans que l’on nous parle de « BigData » ou de « Data-Driven Marketing », on aurait pu croire que la maîtrise des données serait déjà pleinement intégrée dans les schémas directeurs des DSI et ce, en synergie totale avec les besoins des directions métiers. Malgré tout, nous constatons tous les jours que la réalité est loin d’être parfaite et qu’il est urgent d’adopter une stratégie forte de gouvernance des données.

D’autant plus que les entreprises se heurtent régulièrement à une divergence des points de vue entre IT et métiers. La DSI approche la donnée sous l’angle de son stockage, de la gestion de sa disponibilité et de sa sécurité alors que chaque direction métier l’envisage de manière très individuelle sous l’angle des usages et de l’aide à la décision. Deux approches complémentaires qui doivent désormais converger rapidement :

L’objectif est double : protéger le patrimoine de données de l’entreprise et augmenter constamment sa valeur en termes d’usages métiers

Cette convergence est donc à la fois un chantier organisationnel et technique car la valeur de la donnée client ou celle liée au produit ne peut s’envisager que dans le respect des contraintes de la DSI et au service des objectifs de chaque direction métier.  Une telle démarche doit ainsi être mise en œuvre à travers une centralisation plus forte des données et une synchronisation sur tous les logiciels et supports en place dans l’entreprise. C’est précisément ce que proposent de résoudre les solutions MDM (Master Data Management) ou PIM (Product Information Management), alors voyons concrètement leurs différences…

Le MDM (Master Data Management) dédié aux données de référence

Mettre en œuvre un MDM (Master Data Management) est une démarche globale d’amélioration de la qualité des données à l’échelle de toute l’entreprise. En effet, un projet MDM se focalise sur la création d’un référentiel unique pour toutes les données stratégiques de l’entreprise : clients, fournisseurs, articles, nomenclatures, processus de fabrication, RH, etc. Il ne vise pas à répondre uniquement à certains besoins mais bien de poser les fondations d’un système de gestion homogène des données de référence et des référentiels de donnée. L’objectif est de s’assurer que chaque collaborateur dans l’entreprise aura bien la même vision d’une donnée à un instant T sans qu’il y ait des problématiques de réconciliation et quel que soit le nombre de logiciels différents utilisés dans tout le système d’information.

Techniquement, le MDM centralise et unifie les données dans un référentiel unique puis va gérer leur « propagation asynchrone » vers toutes les applications du système d’information via le Bus Applicatif ESB. Les règles de gouvernance des données étant bien définies, tout changement d’adresse d’un client (à son initiative sur un site e-commerce par exemple) sera ainsi répercuté quasiment en temps réel dans tous les autres logiciels, ERP, CRM, etc. Le MDM apporte ainsi une grande maîtrise de la donnée et garantit aux utilisateurs d’exploiter toujours une donnée fiable.

Le MDM répond donc à une stratégie d’unification globale des données tandis que le PIM sera davantage orienté sur une stratégie d’unification des données Produits comme nous allons le voir…

MDM versus PIM : frères ennemis ou Dream Team ?

Le PIM (Product Information Management) en vogue dans le Retail mais également l’industrie !

Une solution PIM (Product Information Management) permet en effet de centraliser dans un référentiel unique toutes les informations liées aux produits (caractéristiques techniques, descriptions, références, nomenclatures, photos, contenus médias, etc.) habituellement stockées dans différentes applications du système d’information. Lui aussi alimenté au travers de bus applicatifs ou directement via les applications si le système d’information n’est pas urbanisé, il simplifie et fiabilise les échanges de données lorsque l’on a plusieurs canaux de distribution parallèles comme dans le Retail. Les logiciels de Product Information Management sont également de plus en plus utilisés dans l’industrie agroalimentaire, pharmaceutique et globalement des biens de consommation pour qui la gestion de l’information produit est critique.

Basé sur les mêmes principes d’alimentation et de centralisation que le MDM, le PIM pourrait être, à première vue, considéré comme une sous-partie du MDM. L’intérêt majeur est de sécuriser les processus de commercialisation des produits : dès qu’un produit est référencé, les utilisations par le marketing, les ventes et la logistique ainsi que sa mise à disposition dans les bases tarifs des commerciaux, sur les sites e-commerce et/ou Market Places partenaires sont très rapides. C’est donc une application utilisée en premier lieu par les équipes marketing et produit ! Il est ainsi orienté avec un prisme métier plutôt qu’avec la vocation de mettre en place une gouvernance des données au niveau de l’entreprise. Il pourra apporter des fonctionnalités spécifiquement orientées en ce sens : indicateurs liés aux produits, fonctions orientées « achat »… que ne proposeront pas des Master Data Management.

La solution PIM (Product Information Management) est donc particulièrement adaptée aux enseignes du Retail et les entreprises orientées « produits CPG » dont la performance des stratégies omnicanal exige que les consommateurs, vendeurs et partenaires puissent facilement et rapidement accéder à la bonne information sur les produits.

Le PIM pourrait ainsi être considéré comme une première étape dédiée aux produits par rapport au MDM afin de gérer la contextualisation des Master Data sur les différents canaux de communication et de vente et ainsi garantir la bonne exécution des stratégies Marketing. Mais très vite, assister votre stratégie omnicanal et garantir une expérience client unique impliquera de mettre en place une gouvernance des données transversale. Pour cela, on ne pourra pas se limiter aux seules données des produits, il faudra déployer un référentiel unique partagé par l’ensemble des applications qui composent votre écosystème et unifier toutes les données liées au parcours client dans un MDM.

Le PIM n’est donc pas une sous-partie d’un MDM et les deux approches sont souvent complémentaires. Dans le cas de référentiels simples avec des données stables, déjà qualifiées, qui évoluent peu et ne nécessitant pas de synchronisation avec d’autres applications, un PIM peut suffire à gérer et piloter les données produits (et elles seules !). Si les référentiels sont plus complexes avec une évolution dynamiques des données, des échanges inter-applicatifs et des processus métiers transversaux alors un Master Data Management s’avère nécessaire pour structurer la démarche.

Vous souhaitez échanger autour de votre stratégie de gouvernance de la donnée ? Prenez rendez-vous !

Au plaisir de discuter avec vous !

Développer son portail achat

Le portail achats englobe des enjeux opérationnels aussi bien que stratégiques pour l’entreprise

Dans la continuité de la sélection des fournisseurs, le portail achats fournit une vision claire des processus d’achat et des prises de décision. Catégorisation des achats, procédures de sourcing, appels d’offres : l’outil facilite à la fois la gestion interne et les échanges avec les fournisseurs.
L’importance de ce type de plateforme ne fait que croître, à l’image des volumes d’achat des entreprises : le portail achats doit donc non seulement permettre d’organiser tous les achats internes, sans oubli et en adéquation avec les besoins, mais il doit aussi apporter des éléments concrets d’analyse a posteriori. On pourra ainsi évaluer la performance du service, l’impact des achats sur l’entreprise, et définir des KPI sur mesure.

Un tel portail comporte également des fonctions collaboratives, dont le rôle sera de mutualiser les efforts et de ne rien manquer des besoins de chaque acteur. Sur une plateforme dédiée aux achats, les échanges de données, leur partage et leur enrichissement sont au cœur des processus métier. Leur capitalisation en lien avec les référentiels métier est également essentielle.

Enfin, un portail achats permet de mieux maîtriser les pratiques de l’entreprise et de faire appliquer concrètement sa stratégie et ses valeurs tout au long du processus. En apportant un cadre structurant aux échanges avec les fournisseurs et une ligne directrice à toutes les décisions d’achat, il est plus simple de mettre en œuvre les politiques particulières de l’entreprise. Les retombées (efficience des achats, transparence des échanges…) sont alors aussi positives en interne que pour le rayonnement externe de l’entreprise.

Les avantages du portail achats pour une vision partagée des processus et de leur avancement

Le portail achats fournit une vision à 360° de l’activité du service achats. Il dispose pour cela, dans la plupart des cas, de fonctionnalités telles que :

  • La planification des achats : celle-ci permet de suivre chaque étape, de l’expression des besoins au suivi de l’évolution des achats. L’outil facilite notamment la consultation des fournisseurs, la gestion des budgets et la définition de plans d’action.
  • La gestion des achats en mode projet : le portail fournit une vision aussi bien stratégique qu’opérationnelle, avec une répartition des tâches concrète et une modélisation des processus d’achat. Les achats sont considérés dans leur ensemble et mieux coordonnés.
  • L’analyse de la performance : l’outil centralise l’ensemble des KPI et génère un reporting simple à partager parmi les équipes. Grâce à son interopérabilité avec les outils de Business Intelligence, le portail achats fournit une analyse de performance poussée et adaptée à l’activité métier.

En offrant une vue complète à chaque étape, le Portail Achats contribue à la fluidité et à l’amélioration continue des processus du service achats :

Optimisation des processus d’achat

Optimisation des processus d’achat
  • Catégorisation des achatsDématérialisation des factures & vue sur les contrats
  • Référencement des fournisseurs
  • Prise de recul sur les processus d’achat et amélioration continue des pratiques

Communication centralisée

Communication centralisée et portail personnalisé
  • Centralisation des besoins, mais aussi des justificatifs tels que les commandes et factures.
  • Echanges internes et avec les fournisseurs facilités. Chaque intervenant accède à ses données au sein d’un portail collaboratif personnalisable.

Exploitation des données et analyse

Suivi des achats à chaque étape
  • Un suivi à chaque étape grâce à des KPI d’achat et des KPI fournisseurs. Le reporting s’adapte à chaque utilisateur et permet d’analyser la performance.

Connectivité et adhérence au SI

Adhérence du portail achats au SI
  • Communication permanente entre la plateforme et les outils comptables et financiers, les applications métiers, ou les logiciels de BI pour l’analyse.

Pourquoi la digitalisation des processus est loin d’être un sujet dépassé ?

Une réponse complète à la dématérialisation et l’optimisation des processus achat avec Blueway

Nous sommes convaincus chez Blueway que la réponse à l’optimisation des processus achat ne peut pas porter que sur un seul angle de lecture. Elle doit englober dans une même solution tous les enjeux sous-jacents et donc être composée de plusieurs briques technologiques complémentaires.

Les 3 solutions BPM, ESB et MDM de Blueway traitent chaque aspect des échanges de données pour un portail achats complet :

BPM

modélisation des processus achats

Modéliser les processus sur mesure et les rendre accessibles au travers d’un portail ergonomique, afin que les procédures d’achat correspondent en tout point aux pratiques et aux besoins de l’entreprise. Les processus sont ainsi orchestrés selon une logique métier, et le portail achats contient les fonctions et éléments essentiels à ces métiers.

ESB

Adhérence du portail achats au SI

Fluidifier les échanges entre les logiciels métiers et le Portail Achats. Le bus applicatif rend le portail et les processus adhérents au SI, afin que ceux-ci communiquent naturellement avec les autres outils, sans contrainte de format de données

MDM

référentiel des données achat

Mettre en place des référentiels articles et fournisseurs pour accompagner la démarche et unifier la donnée utilisée par toute l’entreprise.

En exploitant chacune de ces dimensions de la gestion de la donnée, on façonne un portail achats personnalisé, intégré au système d’information et à tous les services de l’entreprise pour apporter :

  • Des achats mieux anticipés et documentés, et donc plus d’agilité dans les processus
  • Un aspect collaboratif à tous les aspects des achats, et donc une synergie des équipes
  • Une information complète et fiable aux parties prenantes, et donc des procédures sans erreur, plus efficaces.

La combinaison des solutions BPM, ESB et MDM permet de composer un outil sur mesure, qui intègre la logique d’achats propre à chaque entreprise. Le portail s’intègre ainsi au SI et prend naturellement un rôle d’interface entre les intervenants, favorisant la transparence et maximisant l’utilité et l’exploitation des données.

Vous souhaitez échanger avec l’un de nos experts autour de la mise en place d’un portail achats ?
Échangez avec nos experts !

Au plaisir d’échanger avec vous !

HubEE : service public

Synthèse du webinar Blueway & CD56 : comment réussir le passage à HubEE pour les acteurs du service public ?

Lors du webinar du 29 septembre 2022, Blueway a donné la parole au Conseil Départemental…

SDIS : Améliorer son Système de Gestion Opérationnelle en 5 points

Le contexte des SDIS (Service Départemental d’Incendie et de Secours) est loin d’être…

Plateforme omnicanal : les solutions

Retail : la stratégie omnicanal ne peut pas se passer du DSI !

La grande distribution subit de plein fouet l’impact du digital. Pour rester dans la course…

BPM : gagnez du temps de travail

Récupérer 3 semaines de travail grâce au BPM

Il reste encore des efforts à fournir pour optimiser le temps de travail des…

Choisir un logiciel workflow : quels critères retenir ?

Quel logiciel de workflow choisir pour automatiser vos processus ?

Gérer un flux de travail (la traduction de workflow) consiste à coordonner un ensemble…

BPMN 2.0 : décryptage Business Process Model and Notation

Qu’est-ce que la norme BPMN 2.0 (Business Process Model and Notation) ?

Les personnes qui interviennent sur chacun des processus de votre organisation sont nombreuses…

Comment choisir le meilleur logiciel BPM ?

Piloter ses processus pour répondre aux enjeux des métiers et de la donnée : comment choisir le meilleur logiciel BPM pour votre organisation ?

Comment choisir un logiciel BPM (Business Process Management) adapté à son organisation sans…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel unique de données pose de forts enjeux organisationnels et techniques.

Parmi les plus courants, on citera :

  • La difficulté à définir un modèle unique pour les données métier, qui sont par nature dépendantes des pratiques de chaque service
  • Le temps nécessaire à la bonne cartographie des données et à la définition de ce modèle central, avec ses attributs et sa structure
  • L’encadrement obligatoire du MDM grâce une gouvernance des données adaptée, laquelle nécessite elle aussi du temps et des efforts
  • L’impact non négligeable du MDM sur l’organisation interne, qui doit revoir son utilisation de la donnée

En raison de la variété des organisations, le MDM (Master Data Management) prend diverses formes : plusieurs modèles existent, qui permettent selon leur architecture de répondre à des enjeux réglementaires, à un fort besoin d’autonomie de sites locaux, ou au contraire permettent de centraliser des informations clés pour l’activité.

Les changements liés à l’intégration d’un MDM peuvent ainsi se faire en harmonie avec le fonctionnement des équipes et les contraintes techniques et réglementaires propres à chaque secteur.

Au cœur des architectures MDM : le data hub, qui agrège les données et facilite la consultation du référentiel unique. On distingue quatre modèles principaux de hub MDM :

Le data hub Registry

Ce modèle relativement simple à implémenter permet à la donnée de rester la propriété des systèmes source. Le hub est en charge du dédoublonnage et du nettoyage de la donnée : des modifications qui seront ensuite croisées au sein du hub afin de définir une version unique de la vérité. Le croisement constant des sources permet d’obtenir une donnée nettoyée, indexée grâce à des identifiants uniques. Cette donnée n’est pas renvoyée aux systèmes sources et reste disponible en lecture seule.

Les avantages du modèle Registry

  • Etablir facilement un modèle unique à partir de multiples systèmes sources
  • Ecarter tout risque de suppression de données dans les systèmes sources : cette précaution permet d’éviter tout problème de conformité ou réglementation
  • Opter pour un modèle non intrusif, rapide à mettre en œuvre

Les inconvénients du modèle Registry

  • Ne permet pas d’obtenir un set de données consolidées
  • Un modèle relativement peu performant lorsque des volumes importants de données sont concernés

Le data hub Consolidation

Avec ce modèle de hub MDM, la donnée est copiée depuis les systèmes sources puis consolidée dans un golden record au sein du hub. Elle peut ensuite être redistribuée aux applications ou directement consommée par les métiers.

Le golden record permet de s’appuyer sur des données de référence fiables, qui facilitent les tâches de reporting. Contrairement au modèle de hub Registry, le modèle Consolidation renvoie la donnée aux systèmes sources pour enrichir et actualiser la data dont ceux-ci disposent. Les applications et processus s’ouvrent ainsi à l’amélioration continue de leurs données.

Les avantages du modèle Consolidation

  • Une réelle consolidation des données dans le hub, qui permet de bâtir un référentiel complet
  • Une solution à la fois économique et fiable pour toutes les formes de reporting et d’analyse
  • Un modèle moins dépendant des systèmes sources que le modèle Registry, la donnée étant centralisée dans le hub

Les inconvénients du modèle Consolidation

  • Un délai parfois long entre les consolidations pouvant mener à une obsolescence de la donnée stockée dans le hub

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Le data hub Coexistence

Evolution directe du modèle précédent, le modèle Coexistence permet lui aussi de constituer un golden record grâce à la consolidation, puis de redistribuer les données nettoyées aux applications, où elles sont intégrées.

Si les systèmes sources gardent ainsi la main sur leur donnée, l’actualisation constante de leur data contraint généralement les métiers à modifier leurs méthodes. Couramment utilisé comme architecture de transition lors du passage d’un hub MDM Registry à un modèle Centralisé, ce modèle de data hub instaure une donnée plus unique dans l’ensemble du parc applicatif.

Les avantages du modèle Coexistence

  • Une architecture qui garantit plus de fiabilité et d’unicité de la donnée, à la fois dans le hub MDM mais aussi dans les systèmes sources
  • Un accès rapide à la donnée qui rend les processus plus performants et simplifie le reporting : définis avec précision, les attributs sont immédiatement disponibles dans les rapports

Les inconvénients du modèle Coexistence

  • Un modèle plus intrusif que les approches précédentes
  • Une intégration plus contraignant sur le plan technique et économique : les modèles de données doivent être bien réfléchis et leur structure clarifiée avant utilisation du MDM

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Le data hub Transactionnel ou Centralisé

Ce modèle place quant à lui la donnée de référence sous l’autorité du hub MDM. Le hub devient alors le fournisseur et le référent unique de la donnée pour tous les systèmes sources. Capable d’enrichir, de dédoublonner et de croiser la donnée en permanence, il constitue une data actuelle, puis la renvoie aux systèmes.

Les avantages du modèle Centralisé

  • Une donnée de référence réellement unique et fiable à tout moment
  • Une garantie de sécurité et de conformité du traitement de la donnée
  • Des systèmes et processus qui bénéficient directement de l’enrichissement de la donnée

Les inconvénients du modèle Centralisé

  • Une démarche très intrusive pour les processus en place, lesquels doivent être repensés en conséquence
  • Une intégration complexe, plus longue et coûteuse et plus longue

L’expertise Blueway en matière de MDM

Face à la complexité du choix d’un data hub adapté, Blueway propose un ensemble de solutions complémentaires qui facilite la transformation de votre architecture et accompagne votre stratégie data, selon votre propre contexte. La combinaison d’une gestion des flux efficiente via un bus applicatif (ESB), d’une modélisation intelligente des processus avec le BPM et d’un MDM capable d’unifier les données apporte une solution globale et cohérente enjeux métiers.

L’expertise de Blueway et notre approche exhaustive des dimensions de la donnée vous permettent de modéliser, mettre en place et superviser vos flux de données, vos processus et vos référentiels, sans limitation technique.

Vous souhaitez échanger autour des différents modèles de hub MDM ?
Échangez avec nos experts !

Au plaisir d’échanger avec vous !

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Interopérabilité SI : témoignage autour du projet de Paredes

PAREDES a révolutionné le monde de l’hygiène en France en créant le marché de l’usage unique. Depuis plus de 7 décennies, ce groupe de plus de 650 collaborateurs, fabrique et distribue des produits et des solutions innovantes en matière d’hygiène et d’équipements de protections individuelles pour les professionnels. Leur approche, fondée sur leurs valeurs, est celle d’une entreprise résolument orientée Client.

La gestion des flux de données au sein du système d’information est une problématique présente dans tousles secteurs d’activité, renforcée par la taille de l’entreprise, la diversité des applications métiers ainsi que les besoins de digitalisation et d’intégration avec l’écosystème.

Dans certaines organisations, l’orchestration des flux devient une brique clé de l’ambition de transformation. C’est le cas de PAREDES qui, depuis 2018, s’est lancé les défis d’être reconnu leader sur son marché, de devenir un multi-spécialiste sur des secteurs comme la santé, les collectivités ou l’industrie, et de proposer des services de bout en bout (SAV, équipement, maintenance…).

Dans cette interview, Emmanuel OBERTHUR, DSI de PAREDES revient sur cette transformation, l’implémentation des premières briques structurantes du SI et les enjeux qu’elle soulève en termes de gestion des flux.

Quelles évolutions de l’entreprise ont impacté la direction des systèmes d’information ces dernières années ?

Avant tout, pour poser le contexte, nous ne sommes qu’au début de notre trajectoire de transformation ! Elle va se poursuivre dans les années à venir. La DSI est au cœur de la transformation de PAREDES : notre objectif est de remettre PAREDES en dynamique et se donner la capacité d’évoluer en permanence.

Ce programme de transformation repose sur plusieurs dimensions, avec en particulier le fait de recentrer le business vers des secteurs de marché où PAREDES a une vraie valeur à apporter aux clients. C’est le cas par exemple des secteurs de la Santé, des Collectivités, des Entreprises de Propreté et de l’Industrie.

La deuxième dimension essentielle est d’accélérer sur le digital. Auparavant, 90% des processus de PAREDES reposaient sur l’ERP. Le programme de transformation vise à ouvrir en grand des solutions digitales pour nos clients : portail clients, plateforme e-commerce… C’est-à-dire des solutions qui vont projeter PAREDES vers l’extérieur et qui doivent aussi communiquer entre elles !

Si on remonte un peu dans le temps, cela fait aussi écho à la place grandissante des métiers. De plus en plus, ils nous faisaient remarquer que « l’ERP c’est bien, mais sur tel ou tel bout de process ce n’était pas pérenne » ou qu’ « il fallait raccorder le SI avec telle nouvelle application best of breed, ou développée en interne. » et leurs besoins s’accéléraient.

Notre objectif : partager l’information de façon fluide, efficiente, orchestrée et supervisée, d’abord en interne puis avec l’extérieur.

Quels enjeux vous ont convaincus qu’une plateforme ESB était indispensable pour soutenir cette transformation ?

L’interopérabilité au sein des briques du système d’information de Paredes est devenue un vrai enjeu quand on a commencé à hybrider le SI et à sortir des données de l’ERP pour les faire circuler plus largement. Tant que tout tournait dans l’ERP, nous étions sur des schémas très traditionnels de demi-interfaces. L’orchestration et la supervision étaient alors empiriques et manuelles.

Historiquement, il y avait déjà une somme de projets (Power BI, EDI…) qui s’était traduite par la mise en place d’échanges de données mono ou multi-sens, sans qu’ils soient posés dans un plan de travail permettant de superviser les flux. C’est l’ERP qui fédérait les flux : l’application métier déposait son fichier dans un dossier que l’ERP scannait avec une fréquence définie. Si le timing n’était pas le bon, les échanges pouvaient se télescoper !

Entre fin 2018 et 2021, beaucoup de choses ont changé. Nous avons accumulé un certain nombre de projets et les formats d’échange se diversifiaient de plus en plus. Plus ils se développaient, plus nous savions que nous allions être confrontés à des mécanismes d’interopérabilité avec des enjeux de fréquence et de qualité. La technique d’autrefois n’était plus suffisante ! Comment également répondre à notre volonté d’échanger avec le reste du monde ? D’extraire, mutualiser la donnée et la distribuer vers plusieurs applications ?

Ces dernières années, nous avons doublé quasiment tous les ans le nombre de flux. Or, orchestrer les flux n’est plus une option à un certain niveau de volumétrie et de fréquence !

Le début du projet e-commerce fut la première des briques majeures du programme de transformation qui a mis en lumière le besoin très fort d’interopérabilité.  De nombreux autres projets étaient aussi concernés comme le CRM (Microsoft Dynamics) qui devait communiquer via API. Impossible à faire au travers de l’ERP dans sa version actuelle !

A la fin de l’été 2020, nous étions ainsi convaincus de la nécessité de mettre en place une plateforme d’échange nous permettant de collecter l’information et de la redistribuer, quelle que soit la technologie utilisée. Et cela, d’autant plus que nous avions fait précédemment quelques essais avec Azure Data Factory. Cette approche était technologiquement très intéressante, mais loin d’être adaptée à notre contexte dans la pratique. Nous ne souhaitions pas multiplier les éditeurs et nous sommes « pro Microsoft », mais quand on ne trouve pas de solution adéquate, il faut ouvrir !

C’est pour cela que nous souhaitions mettre en œuvre une mécanique avec un entrepôt de données alimenté par l’ESB ou l’ETL. Notre crédo était de développer des échanges plus fluides et mutualisés.

Comment accompagner l’ambition de transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

Quelles ont été les grandes étapes de la sélection et de la mise en place de la plateforme ESB ?

Quand est arrivé le projet CRM avec des échanges de nature très diverse, nous savions que l’ETL ne répondrait pas au besoin. Au sein d’Azure Data Factory, tous les services sont parcellaires et ne sont pas rassemblés dans un outillage cohérent de notre point de vue. Le budget était également un frein.

Les premiers travaux autour de notre e-commerce notamment, et SSIS (SQL Server Integration Services) nous ont permis de rencontrer les équipes de Data-Major. Nous avons commencé à collaborer sur d’autres dossiers, puis nous avons réfléchi ensemble à ce sujet de gestion des flux inter-applicatifs et nous nous sommes retrouvés autour de plusieurs convictions.

Fin de l’été 2020, la décision était prise. Le temps d’écrire l’expression de besoin, de s’accorder avec l’intégrateur sur la logique du « Why not », le projet CRM a démarré et les premiers flux ont été conçus. Nous avons ensuite installé la plateforme en janvier 2021, formé en février, et lancé le premier lot sur la CRM avec les équipes de Data-Major pour une rentrée en production en Q4 2021.

Je voulais une approche simple, moderne, économiquement accessible, qui aille vite, dans la logique d’un « Why not ? » et avec un partenaire intégrateur prêt à s’investir dans la démarche. Je souhaitais également pouvoir souscrire en On-Premise.

Au niveau du choix de la plateforme ESB, nous avions étudié plusieurs solutions. La majorité d’entre elles était très technologique. Face à cela, l’approche low-code de Blueway nous a paru extrêmement intéressante, tout comme le fait d’ajouter par la suite des modules pour évoluer vers des besoins complémentaires, sans contraintes : MDM, BPM… Cette ouverture, c’est un élément de réflexion que nous gardons en tête pour une future démarche MDM ! Cela fait partie des critères qui ont renforcé nos convictions. Lorsque nous lancerons un chantier MDM, on se donne ainsi la possibilité d’avoir un encapsulage natif avec l’ESB. Et cela compte !

Tous les échanges depuis les nouvelles applications seront pilotés au travers de la plateforme ESB. L’autre grand chantier en parallèle est de migrer les interfaces historiques. Le premier lot regroupera les interfaces réalisées avec SSIS pour l’e-commerce, car il y a une forte mutualisation avec la CRM en termes de nature et d’objets. Notre démarche reste pragmatique : nous avions par exemple démarré les échanges de flux entre l’e-commerce et l’ERP avec SSIS car nous savions que cela serait fonctionnel en attendant le chantier ESB. C’était une première expérience de changement de technologie.

La priorisation du plan de migration des interfaces existantes dépendra ensuite des enjeux technologiques et techniques. Pour certaines applications sous l’ancien mode d’interopérabilité, les « sachants » qui ont développé les interfaces ne sont plus présents. Le risque pour l’exploitation et la criticité seront ainsi des critères de priorisation.

Quels sont les prochains projets et comment la plateforme ESB accompagnera ces évolutions ?

Nous sommes encore en train d’élargir le périmètre applicatif de PAREDES et cela ne va pas s’arrêter. Demain, le groupe grandira encore. C’est dans notre stratégie !

Nous intégrerons de nouveaux logiciels ; nous mettrons à disposition de nos clients des API afin qu’ils récupèrent et transposent automatiquement de l’information dans leurs applications, ou qu’ils opèrent certains processus métiers. Une de nos ambitions est de résoudre un certain nombre des problématiques clients tout en intégrant cette démarche au sein de l’offre de services de Paredes. Ces applications très orientées métiers vont avoir besoin d’interpeller la plateforme, d’envoyer de l’information à une autre, de communiquer avec les SI des clients… Faire communiquer les SI entre eux, cela fait partie des services que vous visons à développer !

La plateforme ESB sera un accélérateur pour tous ces nouveaux projets. Nous l’avons vécu récemment dans le cadre de notre projet de refonte du SI RH. Cela a facilité le travail d’intégration de pouvoir directement mettre en place une approche moderne d’échanges via l’ESB : récupérer les données, les mettre en forme, les transporter dans le SI…

De plus, si cette plateforme est initialement utilisée par le SI de la partie française, la filiale en Italie dispose aussi d’un SI composite. On est une entreprise qui vit et la collaboration ne fera que se renforcer entre la France et l’Italie en termes de savoir ou d’applications communes. La croissance externe fait également partie de notre stratégie : il faut être prêt à assembler des SI ou les faire communiquer.

Le MDM (Master Data Management) sera aussi une suite logique dans notre structuration du SI. Et pour finir, comme nous allons accélérer sur le digital, il y aura de plus en plus de services, et donc de plus en plus d’événements, de temps réel… C’est également pour traiter de l’événementiel que nous avions besoin d’un ESB !

Ce ne sont plus deux personnes ne parlant pas la même langue qui essaient de communiquer ! Chacun s’exprime et il y a un interprète entre les deux.

Avec vos retours d’expérience, quels conseils partageriez-vous à un DSI qui entamerait un projet similaire au vôtre ?

Mon premier conseil, c’est qu’il ne faut pas se précipiter. Les enjeux technologiques sont forts : de mon point de vue, il est indispensable de prendre le temps d’être au clair sur ses besoins, les factualiser, et ensuite choisir une solution vraiment adaptée.

D’autres questions sont à se poser : va-t-on se retrouver avec une solution que des équipes métiers éclairées pourront utiliser ? Est-elle réservée à des profils purement techniques ? L’outil doit être puissant dans la proposition et simple dans la mise en œuvre.

Je préconise aussi d’être pragmatique sur les chantiers à mener : commencer par les choses simples et monter au fur et à mesure en complexité afin de gagner en maîtrise.

Il faut également anticiper les besoins futurs. La solution doit être évolutive. Par exemple, nous sommes de plus en plus interpellés par nos clients autour de l’accès à l’information. Nous ne voulions pas que le portail clients, qui est leur point d’entrée, soit d’une complexité folle. Ce portail devait ainsi s’appuyer sur une logique d’API et de web services. L’ESB devait prendre en compte dès le départ ce contexte afin de participer à délivrer des informations à nos clients de manière très évènementielle.

Ce n’est pas ETL ou ESB mais ETL et ESB ! Il ne faut pas s’imaginer que disposer d’un ESB implique de jeter son ETL. Pour de très grosses volumétries, l’ETL reste plus performant, au contraire l’ESB répondra plus efficacement pour distribuer de l’information sur sollicitation, à tout moment, si une application a enclenché un service. Ce sont deux philosophies différentes.

Au-delà de la solution, penser à comment l’écosystème va pouvoir vous accompagner est également essentiel ! Choisir les bons partenaires est un des premiers gages de réussite. Sur ces outils et ces technologies, le partenaire intégrateur est aussi important que le partenaire éditeur. Nous sommes partis sur un « Why Not », car nous avions confiance dans notre partenaire Data-Major.

Pour prendre comme exemple notre retour d’expérience, nous sommes arrivés au choix de Blueway avec une prise de risque partagée entre Data-Major et nous. Nous étions de part et d’autre convaincus de la philosophie de l’outil. Data-Major s’est investi à nos côtés pour monter en compétences sur la technologie Blueway. Cela faisait partie du deal et cela a rendu les choses beaucoup plus faciles ! Nous n’avions en effet pas suffisamment de temps devant nous pour intégrer les « sachants » dans nos équipes. Cette approche et cette répartition ont permis d’aller vite tout en limitant les risques.

Vis-à-vis de Blueway, l’éditeur, un point que j’apprécie particulièrement et qui remonte en COPIL, c’est que Blueway ne s’est pas contenté de vendre sa licence. Si Data-Major partage les risques du projet avec nous, Blueway s’est aussi engagé à nos côtés pour nous accompagner tous les deux. Dès que l’équipe de Data-Major a eu besoin d’affiner ses connaissances, de monter en expertise, d’aller chercher un expert, Blueway a toujours répondu présent.

Nous sommes tous les trois des entreprises à taille humaine. Le trio fonctionne bien, et rechercher cette synergie est pour moi le conseil le plus important !

Vous souhaitez échanger avec l’un de nos experts autour de vos enjeux de transformation du Système d’Information  ?

Le RCU et son rôle central
pour la qualité des données client

Offrir une véritable continuité dans le parcours client est désormais un impératif : la qualité de l’expérience est en effet un puissant élément différenciant. Et pour les clients, employer des canaux différents pour la prise d’information, l’achat et le retrait d’un produit est maintenant commun ! Les usages ont fortement évolué et les points de contacts se sont multipliés.

Pour les entreprises, cette tendance renforce encore plus l’importance d’adopter une démarche customer-centric. En initiant le contact au meilleur moment, il est possible de toucher le client au plus juste. Mais pour savoir où et quand solliciter ses utilisateurs ou acheteurs potentiels, il est indispensable d’avoir une connaissance complète de leurs usages : la donnée client doit être exhaustive et accessible pour bien guider la stratégie commerciale des marques.

Cet enjeu est d’autant plus grand que la donnée client est aujourd’hui dispersée dans de nombreux outils métiers  (CRM, WMS, sites marchands…). En l’absence d’un système de centralisation, collecter et exploiter pleinement cette donnée est aussi essentiel que complexe.

Si le CRM est rapidement devenu indispensable pour comprendre et piloter de manière opérationnelle les échanges avec les clients, le Référentiel Client Unifié (RCU) concentre quant à lui en un point central l’ensemble de l’information liée aux clients.

Ce référentiel doit permettre :

  • d’automatiser la collecte et le tri intelligent des données client pour soutenir le marketing
  • de définir une version unique de la vérité « client » distribuable à tout le SI
  • de maîtriser la donnée et sa conformité malgré les évolutions logicielles et réglementaires

Quels bénéfices attendre
de l’utilisation d’un RCU ?

Le RCU répond en premier lieu au besoin d’unifier, de structurer et de mettre en qualité les données provenant de sources multiples. Pour cela, il effectue des tâches telles que :

Restructuration-des-donnees

Restructuration

Les données sont réorganisées pour disposer d’une vision à 360° du parcours client, en particulier à des fins marketing et commerciales.

Normalisation des données

Normalisation

La structure des données est adaptée aux normes des outils métiers afin d’exploiter celles-ci facilement.

Rapprochement et enrichissement des données

Redressement/Enrichissement

Les données relatives à chaque client sont rapprochées pour créer un ensemble de données complet, cohérent et fiable.

Déduplication et unification de la vue client

Déduplication et unification

La suppression des doublons générés par les différents canaux permet d’unifier la vue sur chaque client et son parcours.

Conformité, accès et droits

Conformité au RGPD / Accès et droits

Le RCU est un atout pour respecter le RGPD en facilitant l’archivage, la purge des données lorsque nécessaire, la gestion du droit à l’oubli ou du consentement… Le contrôle des accès garantit un traitement adéquat et sécurisé de la donnée par chaque utilisateur.

Mais le Référentiel Client Unifié doit aussi permettre aux métiers de tirer plus de valeur des données grâce à :

Segmentation et typologies client

Segmentation et typologies client

Celles-ci permettent d’améliorer sa connaissance client et de prioriser efficacement les actions.

Scénarii de campagne personnalisés

Support pour les scénarii de campagne

Grâce à la capacité de scoring du RCU, des scénarios très personnalisés peuvent être élaborés en lien avec le CRM.

Data Visualisation et parcours client 360

Data Visualisation

Agrégées dans une vue à 360° du parcours client et consolidées sous la forme d’indicateurs visuels, les données sont mieux exploitées et comprises.
Les tableaux de bord, audits et analyses stratégiques de l’outil s’adaptent aux besoins des métiers.

Le RCU a aussi un rôle fort à jouer sur la gouvernance des données et la circulation de celles-ci dans le SI. Les flux peuvent alors alimenter les processus métiers au bon moment. Mieux agrégée dans des reportings et scénarii,  la donnée client apporte un réel soutien à la prise de décision.
Enfin, le RCU sécurise la donnée, l’accès à celle-ci et permet de rester en conformité avec le RGPD.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Comment mettre en place
un référentiel client unique adapté ?

La mise en place d’un RCU ne s’improvise pas : la technologie choisie pour ce hub de données doit être cohérente avec l’organisation interne.

L’implémentation du Référentiel Client Unifié suit des étapes précises qui garantiront par la suite la qualité des données et des flux :

  1. Définition des points de collecte de la donnée (notamment via le plan de collecte, qui permet d’améliorer les techniques et canaux de collecte)
    1. Cartographie du SI
    1. Définition des cas d’usage du RCU
    1. Sélection de l’outil adéquat sur la base d’un cahier des charges et de l’évaluation en profondeur d’un petit nombre d’éditeurs
    1. Déploiement de l’outil, lequel nécessite à la fois la définition de règles de pilotage rigoureuses,  le paramétrage et une phase de test

S’il est possible de choisir un outil intégré au CDP ou au CRM, le déploiement d’une solution indépendante présente des avantages supplémentaires.
La solution de Master Data Management permet en effet de faire de son RCU un outil parfaitement transversal : on disposera ainsi d’une version unique de la vérité, qui alimentera tous les processus avec la même qualité de données, indépendamment des applications métiers.

Interview d’expert :
Deux retours d’expérience complémentaires sur la mise en place de solutions MDM (Master Data Management)

Votre plateforme client unifiée avec Blueway

Le Master Data Management de Blueway est une solution clé pour la centralisation des données du RCU. Elle unifie la vue des différents métiers sur les données et sécurise toutes les étapes de modification et de validation de ces données. De plus, le MDM introduit une forte dimension collaborative et garantit que les intervenants travaillent tous sur des données uniques et exactes.

Au-delà de la seule action du MDM, la communication entre le RCU et les outils métiers doit être pilotée. En associant le MDM aux solutions d’ESB et de BPM, la plateforme client unique de Blueway fait également vivre et circuler la donnée dans l’ensemble du SI :

  • Le bus applicatif ESB joue un rôle de coordinateur en améliorant la communication au sein du SI. L’ESB permet une meilleure supervision des flux entre applications et accélère les transferts de données depuis et vers le RCU.
  • Enfin, le BPM joue un rôle complémentaire essentiel pour tous les intervenants qui utilisent la donnée client en soutenant la mise en place des processus, de portails et d’écrans métiers.

Ces trois briques applicatives permettent ainsi à la plateforme de ne pas se limiter à l’unification de la donnée, et d’adopter une vue transversale qui englobe également l’implication des métiers et l’architecture du SI, et ce tout au long du cycle de vie de la donnée client.

Vous souhaitez échanger autour de la mise en place de RCU ?

Au plaisir d’échanger avec vous !

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Choisir d’implémenter un portail fournisseur 

Le référencement produit :
un enjeu de taille pour les retailers

Face à la multiplication des gammes de produits, le référencement est devenu le point névralgique de la communication entre l’entreprise et ses fournisseurs.

Mais l’évolution rapide des produits n’est pas la seule raison rendant essentiel le processus de référencement produit :

  • La diversité des normes et formats utilisés par les fournisseurs complique le recensement et l’harmonisation des données
  • Les arrivées et départs fréquents de fournisseurs ne sont pas toujours traités en temps réel et ralentissent le référencement
  • L’exigence des clients finaux et des marchés en matière de qualité et d’information produit impose une saisie exhaustive et sans erreur, mais également une capacité à exploiter et valoriser les données
  • Les données produits sont bien souvent dispersées au sein du Système d’information de l’entreprise

Les données produit sont extrêmement variées. Achats (prix d’achat brut, remises, garantie…), logistique (pays d’origine, dimensions, nombre de produits / container…), caractéristiques techniques (certification, délai de péremption, sensibilité du produit…) : ce sont des milliers d’attributs qu’il faut saisir et mettre à jour en fonction des entrées et évolutions liées aux fournisseurs.

La difficulté est d’autant plus grande lorsque le référencement n’est pas effectué par un outil structuré (envoi par e-mail, fichiers Excel…). Le référencement annuel des gammes de produits nécessite alors des saisies et corrections multiples chronophages, sources d’erreurs et de pertes d’informations.

Du bon référencement des fournisseurs et des produits dépendent la fluidité des échanges et l’efficacité en interne. En bout de chaîne, c’est l’expérience client qui est impactée : la qualité des données produits et la capacité à les exploiter doivent donc être optimales.

Comment CMP Paris a urbanisé son système d’information ?

Le portail fournisseurs, une des clés
pour maîtriser l’information produit

Disposer d’un portail fournisseurs, c’est mettre en place un point de contact central et un cadre commun à l’information produit fournie par les partenaires. L’outil facilite à la fois la saisie côté fournisseur et l’utilisation des données côté acheteur :

Fournisseur

  • Des attributs, un format et une nomenclature structurés : familles et sous-familles, articles, attributs
  • Un pré-référencement, référencement ou déréférencement des fournisseurs au bon moment : les échanges sont mieux maîtrisés et les fournisseurs peuvent participer aux appels d’offres.
  • La mise à disposition de statistiques pour améliorer la performance et anticiper les besoins

Acheteur

  • Des données disponibles immédiatement au bon format et transmissibles aux outils métiers (ERP, référentiel articles…)
  • L’intégration du portail au SI pour des flux maîtrisés et automatisés
  • Des données saisies directement par le fournisseur, et donc un gain de temps, un format unifié et moins d’erreurs
  • La sécurisation des accès à l’outil pour les fournisseurs et acheteurs

Cet enjeu de saisie des données par les fournisseurs est le socle du référencement produit. Mais l’utilité du portail fournisseurs doit selon nous aller au-delà de la seule fonction d’externalisation normalisée de la saisie. Pour améliorer durablement la qualité et l’exploitabilité des données, le portail fournisseur doit soutenir :

La circulation des données dans le SI

La mise à disposition des données dans l’outil et leur diffusion à l’ensemble du SI facilite la tâche des métiers.

L’information qui circule est disponible au bon format directement dans l’outil. Les informations peuvent être transmises sans délai à l’ERP comme au référentiel articles. Le format d’entrée normalisé facilite ainsi le retraitement d’une donnée souvent complexe.

L’automatisation
des workflows

L’intégration de workflows au sein du portail accélère les échanges : pré-référencement, appels d’offres, déréférencement peuvent ainsi être automatisés (contrôle des données, alertes par mail pour compléter des informations manquantes, évolution automatique du statut des fournisseurs retenus en appel d’offre…).

La supervision de la relation avec les fournisseurs

Avec le portail, les fournisseurs disposent d’un espace dédié, avec une connexion sécurisée, qui peut également proposer des statistiques, des services au travers d’API et à être une source d’information personnalisée. Ces services fournis par l’outil favorisent l’amélioration continue et renforcent la relation et la collaboration.

MDM versus PIM : frères ennemis ou Dream Team ?

Une vision complète de la relation fournisseurs avec Blueway

Les dimensions BPM, MDM et ESB développées par Blueway se combinent afin de répondre à l’ensemble de ces enjeux et dépasser le périmètre du simple portail fournisseurs. Nous apportons ainsi une solution complète à la relation fournisseurs, capable de proposer un portail fournisseurs ergonomique et structurant, de distribuer l’information produit à l’ensemble du SI, de mettre en place un référentiel articles unique, aussi bien que de piloter les échanges au travers de processus :

BPM

La digitalisation des processus permet de modéliser des workflows sur mesure et d’instaurer des procédures de référencement industrialisées : aucune étape n’est oubliée et les informations nécessaires au référencement sont complètes et à fiables.

MDM

Le recueil des données dans un référentiel unique facilite leur enrichissement et leur redistribution. Le MDM alimente par exemple le PIM et le DAM, offrant une gestion complète des données et médias et leur diffusion aux métiers.

ESB

Le bus applicatif garantit la cohésion nécessaire entre les outils internes et le portail fournisseur : en simplifiant et orchestrant les échanges inter-applicatifs, la donnée produit est disponible et accessible à tout moment par les métiers.

La combinaison de ces trois dimensions offre une vision complète de la relation fournisseurs, qui ne s’arrête pas au seul référencement : la qualité, la sécurité et la transmission efficace de la donnée sont aussi des enjeux centraux, complémentaires au portail fournisseurs.

Le résultat est une collaboration fluide avec les fournisseurs, et donc une information produit unifiée, facile à diffuser à travers le SI, qui améliorera à la fois la confiance entre acheteurs et fournisseurs et la bonne exploitation des informations à destination des utilisateurs finaux.

Vous souhaitez échanger avec l’un de nos experts autour de la mise en place d’un portail fournisseurs  ?

Plateforme omnicanal : les solutions

Retail : la stratégie omnicanal ne peut pas se passer du DSI !

La grande distribution subit de plein fouet l’impact du digital. Pour rester dans la course…

L’expérience client dans le Retail

La synergie achats-ventes dans le Retail : un rôle central pour l’expérience client

Le secteur du Retail est parmi les plus bousculés ces dernières années et il est évident que le…

Data quality

La data quality fait partie des enjeux majeurs pour les organisations, aussi bien sur des dimensions décisionnelles, financières ou de performance. En effet, des données de mauvaise qualité peuvent coûter cher ; une étude menée par MIT Sloan indique que la négligence sur la qualité des données peut coûter de 15 à 25 % du chiffre d’affaires.

Ces pertes peuvent se chiffrer en opportunités manquées en lien avec de mauvaises décisions ou un déficit d’image mais également en sanctions légales et en temps passé pour traquer, nettoyer et corriger les données erronées.

A l’inverse, des données de qualité permettent aux entreprises d’améliorer leurs performances opérationnelles, de satisfaire la clientèle et d’être plus compétitives en réorientant rapidement leur stratégie d’entreprise.

Interview d’expert :
Deux retours d’expérience complémentaires sur la mise en place de solutions MDM (Master Data Management)

Quels sont les critères
de qualité d’une donnée ?

Selon  PWC, Micropole, EBG, « la qualité des données désigne l’aptitude de l’ensemble des caractéristiques intrinsèques des données (fraîcheur, disponibilité, cohérence fonctionnelle et/ou technique, traçabilité, sécurisation, exhaustivité) à satisfaire des exigences internes (pilotage, prise de décision…) et des exigences externes (réglementations,…) à l’organisation ».

Une donnée ne possède pas une qualité intrinsèque. Sa qualité ne peut être évaluée qu’à partir du moment où l’on sait ce que l’on veut en faire : Quel est l’objectif final ? Quel sera son traitement ? Quelle signification sémantique donne-ton à l’information ? Quelles sont les attentes en termes de qualité et pourquoi ? Autrement dit, la qualité se définit en fonction de l’usage attendu par ses utilisateurs.

Cela suppose d’avoir une connaissance à la fois globale et fine des processus métiers qui traversent l’ensemble de l’organisation et des standards en vigueur pour permettre l’échange de données en interne et en externe.

Le RGPD pose des limites bien précises aux traitements des données personnelles, sur tout le cycle de vie de la donnée. Une donnée stockée ou utilisée hors cadre réglementaire ne pourra donc pas être considérée comme une donnée de qualité bien qu’elle puisse apporter de l’efficience et de la valeur à l’organisation.

A partir de ces points de considération, la qualité des données peut être jaugée à l’aune de différents indicateurs : son profil, son exactitude, sa complétude, sa conformité, son intégrité, sa consistance, sa disponibilité, son applicabilité, son intelligibilité, son intégration, sa flexibilité, sa comparabilité, sa cohérence etc. Les critères sont on ne peut plus variés ! Rentrent en jeu également des critères de services comme la compréhensibilité, l’accessibilité ou la fraicheur de la donnée.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Pourquoi faut-il mettre en place un Data Quality Management ?

La démarche data quality ne se limite pas à charger des données correctes dans les systèmes d’information ; elle consiste aussi à se débarrasser des données erronées, corrompues ou dupliquées ainsi qu’à garantir une description précise des données pour renforcer leur exploitabilité (dictionnaire de données…).

Si les erreurs peuvent être techniques, elles sont le plus souvent humaines et organisationnelles et surviennent à différentes étapes du cycle de vie de la donnée et à différents endroits du SI :

  • Lors de la collecte par une mauvaise saisie intentionnelle ou non intentionnelle
  • Lors du partage par la création de plusieurs versions d’une donnée
  • Lors de l’export par des règles mal définies en amont ou un problème de compatibilité
  • Lors de la maintenance par un mauvais encodage

Les conséquences en termes de « mauvaise qualité » des données sont par exemple des données inexactes, obsolètes, non-conformes… ou tout simplement dormantes. Une donnée peut ne pas être erronée et pourtant de mauvaise qualité si elle n’est plus utilisée et n’apporte plus de valeur.

La gestion de la qualité des données ou Data Quality Management (DQM) est ainsi la capacité à fournir des données fiables répondant aux besoins métiers et techniques des utilisateurs. Il s’agit donc de transformer des données de qualité en renseignements utiles.

La gestion des données dans une démarche d’amélioration continue de la qualité des données nommée TDQM1 peut se baser sur les 4 phases de la roue de Deming (définir, réaliser, contrôler, agir). Mais plus précisément, on peut recenser 6 étapes :

Data quality & Profilage des données

1. Profilage
des données

Etude de la structure des tables, la relation des tables entre elles, la pertinence des données et la validité de formats

Nettoyage au profit du Data Quality

2. Nettoyage

Identification des données non qualitatives, collecte et correction au sein de la base (élimination des doublons, valeurs manquantes…). C’est un processus itératif !

Homogénéisation des données et qualité

3. Homogénéisation

Standardisation et harmonisation des données sous une forme partagée permettant l’interopérabilité mais également la bonne compréhension par toutes et tous.

Dédoublonnage des données

4. Dédoublonnage
et déduplication

Suppression des doublons au sein d’un même fichier et identification des informations qui apparaissent dans plusieurs fichiers de l’entreprise pour n’en conserver qu’une seule version

Enrichir les données pour améliorer leur qualité

5. Enrichissement 

Amélioration de la complétude des données corrigées et validées en fonction de leurs usages. C’est un également un processus continu.

Reporting sur des données de qualité

6. Reporting
et surveillance

Analyse et pilotage de l’évolution de la qualité des données à l’aide de tableaux de bord et de KPI.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Quels outils pour améliorer la qualité
de vos données de référence ?

Les garants de la data quality

Plusieurs rôles sont apparus au sein des entreprises ces dernières années, avec l’importance croissance portée sur la qualité des données. On citera en particulier le Master Data Manager, souvent lié à l’utilisation d’un MDM, le Data Steward qui facilite l’accès aux données par les métiers ou le Data Owner qui garantit la qualité finale des données. Les postes de direction comme le CDO (Chief Data Officer) et DME (Data Management Executive) sont aussi les premiers sponsors de ces transformations.

Si la constitution d’une équipe pluridisciplinaire– data quality manager, architecte de données, data scientists, data steward, data protection officer– est indispensable pour mener à bien votre démarche de data quality, n’oubliez pas de choisir les bons outils !

Notre conviction : associer les visions Data et Process au service de la data quality

Chez Blueway, nous avons la conviction que data et process sont intimement liés. C’est pourquoi le module Process Governance de notre plateforme Data Foundation vous permet de comprendre vos processus métiers et les usages qui sont en lien avec la donnée.

Pour gérer vos données maîtres clients/fournisseurs, produits et financières – le module MDM , Data Governance, associé aux autres modules de la plateforme, vous permet de superviser et d’automatiser toutes vos actions autour des données : collecter, transporter, enrichir, déverser… Pour améliorer la qualité de vos données, vous pourrez modéliser vos référentiels, créer vos indicateurs et assurer la pertinence, l’unicité et la traçabilité des informations, tout au long de leur cycle de vie !

Vous souhaitez en savoir plus ? Échangez avec nos experts : la data quality nous passionne depuis toujours !

Au plaisir de discuter avec vous !

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Choisir un logiciel workflow : quels critères retenir ?

Gérer un flux de travail (la traduction de workflow) consiste à coordonner un ensemble d’actions faisant intervenir un ou plusieurs participants (internes ou externes à l’entreprise), voire des automatismes (calcul, mise à jour d’information, tâche automatisée…), selon la complexité du flux. Ce flux de travail est souvent la représentation graphique ou la modélisation d’un processus métier réalisée avec un logiciel de workflow.

L’enchainement des tâches ainsi que les interactions entre les acteurs internes ou externes et le SI peut être figé ; on parle de workflow procédural. Lorsqu’il est dynamique, c’est-à-dire lorsqu’il s’adapte à des événements ou des décisions collaboratives ; on parle alors de workflow ad hoc. Dans les deux cas, le workflow peut être utilisé pour automatiser un processus et/ou pour aligner un logiciel avec les besoins métiers.

Selon le Gartner, il existe deux types de gestion de workflow :

  • L’intégration des processus internes et externes : une approche du workflow afin de définir les processus d’entreprise transverses qui couvrent plusieurs applications, y compris celles qui proviennent de différents fournisseurs.
  • Les événements ou processus automatisés : une approche du workflow qui permet d’exécuter des tâches automatisées comme celles liées aux étapes d’une campagne de marketing au travers d’un outil de marketing automation par exemple.

Pourquoi la digitalisation des processus est loin d’être un sujet dépassé ?

Un logiciel de workflow, pour quoi faire ?

Le design de workflow avec un logiciel BPM est la première étape pour automatiser certains processus au sein de l’entreprise : les tâches à faible valeur ajoutée et répétitives mais également des séries de tâches dites « intelligentes » qui peuvent être désormais traitées grâce à l’IA et au Machine Learning, avec le concept de RPA.

L’automatisation par workflow fait succéder les tâches, les données, les échanges d’un processus dans un ordre bien défini par des règles.

Cette orchestration permet d’améliorer le circuit de validation et le respect des délais en partageant à chaque intervenant du processus l’information nécessaire à la bonne exécution de ses tâches. Grâce à la traçabilité des échanges, les managers peuvent également mesurer la performance et identifier les éventuelles difficultés.

Trop souvent, les workflows sont gérés “à la main » dans le code, ce qui rend la maintenance délicate. Un moteur de workflow combiné à un moteur de règles permet ainsi d’exécuter, par un exécutable BPEL par exemple, la définition des processus et de les interfacer avec des applications ou d’autres systèmes de gestion de workflow. Il est alors possible d’optimiser régulièrement ces processus et de les implémenter rapidement et correctement.

Workflow & BPMN 2.0 : en route vers l’automatisation

Pour permettre un langage commun entre les différents métiers et la DSI, la norme BPMN (Business Process Model and Notation) est un standard couramment utilisé pour modéliser les processus. Il comprend par exemple des symboles structurés, des diagrammes de processus, de collaboration, de conversation et de chorégraphie, constituant la « partition » d’un processus.

Depuis 2011, la version 2 du standard ISO/CEI 19510 a fait évoluer ce langage vers un schéma d’échange basé sur XML permettant la conversion de modèles exécutables en langage BPEL, destiné à automatiser et implémenter des processus applicatifs.

La majorité des logiciels BPM a désormais adopté ce standard pour modéliser et exécuter les processus métiers.

Quelle différence entre un moteur de workflow et un moteur de règles ?

Le moteur de workflow et le moteur de règles, outils indispensables pour l’automatisation de processus complexes, sont souvent confondus. Pour simplifier, un moteur de workflow est un routeur qui permet d’exécuter les différentes instances du workflow de manière séquentielle ou conditionnelle (cheminement à embranchements) en fonction d’un jeu de règles. L’outil peut gérer la définition de ce dernier dès lors que les règles sont simples et peu nombreuses : opérateurs booléens, champs de données du processus, valeurs saisies, etc.

Dans le cas de routages plus complexes, le moteur de workflow peut se connecter à un moteur de règles qui sera en mesure de gérer un nombre important de règles sophistiquées, changeantes ou saisies en langage naturel. Le moteur de workflow peut être considéré comme le convoyeur et le moteur de règles comme l’aiguilleur.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Comment choisir votre logiciel de workflow ?

Si les outils du marché se valent souvent en termes d’ergonomie, un bon logiciel de workflow doit comprendre les fonctionnalités suivantes en vue d’automatiser efficacement et à moindre coût vos processus :

  • Un studio de design de workflow incluant des outils de création ou des modèles de processus hybrides (interaction homme-machine) utilisant la norme BPMN 2.0
  • Le WYSIWYG pour bâtir à la souris des écrans utilisateurs de saisie, des IHM, des formulaires, des portails en CSS…
  • Des outils de simulation et de mise au point pour tester, débuguer, etc.
  • Des modules « accélérateur » du BPM (CEP, BAM, MDM, Mashup, BRMS…)
  • Des fonctions d’orchestration des flux et d’automatisation avec le RPA
  • Des fonctions de routages dynamiques ainsi qu’une supervision des traitements : gestion des alertes (mail, sms,), gestion des délégation (rôles et responsabilités), traçabilité
  • Un portail collaboratif de suivi pour chaque intervenant : visibilité sur les tâches qu’il doit réaliser ou qu’il a initiées ainsi que sur les KPI
  • La gestion du référentiel d’organisation : fiches processus, procédures, notes d’organisation, modes opératoires, notices, etc…

Cependant, au-delà de ces fonctionnalités classiques, nous conseillons de ne pas limiter sa vision de la gestion des processus métiers à un logiciel de workflow standard. En effet, mettre en œuvre et piloter les processus au sein de l’entreprise implique que les processus puissent facilement échanger des informations avec les applications du système d’information pour les mettre à jour, les exploiter et les mettre à disposition des utilisateurs dans le cadre de leurs tâches. Un processus sans adhérence forte au Système d’Information n’est qu’un enchainement d’écrans sans grande valeur !

L’interopérabilité entre processus et données : le cœur d’une entreprise agile

Un logiciel de workflow adhérant au Système d’information : un critère important

L’étude d’un processus technique ou hybride conduit à l’analyse d’un grand nombre de fonctionnalités, de méthodes, d’applications et de services de l’entreprise.

C’est pourquoi, de la modélisation des processus à leurs traitements, il est très important de s’assurer que la solution de workflow « adhère » au SI. Il faudra veiller à ce que votre logiciel assure une interopérabilité et une normalisation des données et dispose de connecteurs techniques (Webservices, bases de données, fichier textes et XML, LDAP, mail…) et métiers (applications de type ERP, CRM, SCM…) permettant de réduire les temps de développement et d’intégration.

Pour cela, l’architecture fonctionnelle doit être bâtie autour d’un ESB (Enterprise Service Bus). C’est le bus applicatif qui sera garant de l’acheminement des échanges et de la persistance des messages échangés.

Notre conviction chez Blueway : associer les visions worflow et data

Notre objectif chez Blueway est de réunifier les différentes dimensions des échanges d’informations, et en particulier les facettes processus/worflow et data. Nous repositionnons ainsi les hommes sur leur valeur ajoutée et mettons les données au service de leurs processus métiers.
Notre plateforme Blueway réunit ainsi les dimensions BPM (Business Processus Management) pour la gouvernance des processus et workflows, ESB (Enterprise Services Bus) pour la gouvernance des flux au sein du SI et l’interopérabilité data/workflow et MDM (Master Data Management) pour la gouvernance des données.

Vous souhaitez en savoir plus ? Échangez avec l’un de nos experts sur les logiciels de workflow !

Au plaisir de discuter avec vous !

HubEE : service public

Synthèse du webinar Blueway & CD56 : comment réussir le passage à HubEE pour les acteurs du service public ?

Lors du webinar du 29 septembre 2022, Blueway a donné la parole au Conseil Départemental…

SDIS : Améliorer son Système de Gestion Opérationnelle en 5 points

Le contexte des SDIS (Service Départemental d’Incendie et de Secours) est loin d’être…

Plateforme omnicanal : les solutions

Retail : la stratégie omnicanal ne peut pas se passer du DSI !

La grande distribution subit de plein fouet l’impact du digital. Pour rester dans la course…

BPM : gagnez du temps de travail

Récupérer 3 semaines de travail grâce au BPM

Il reste encore des efforts à fournir pour optimiser le temps de travail des…

Choisir un logiciel workflow : quels critères retenir ?

Quel logiciel de workflow choisir pour automatiser vos processus ?

Gérer un flux de travail (la traduction de workflow) consiste à coordonner un ensemble…

BPMN 2.0 : décryptage Business Process Model and Notation

Qu’est-ce que la norme BPMN 2.0 (Business Process Model and Notation) ?

Les personnes qui interviennent sur chacun des processus de votre organisation sont nombreuses…

Comment choisir le meilleur logiciel BPM ?

Piloter ses processus pour répondre aux enjeux des métiers et de la donnée : comment choisir le meilleur logiciel BPM pour votre organisation ?

Comment choisir un logiciel BPM (Business Process Management) adapté à son organisation sans…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Dans sa vision métier, le processus englobe aussi bien des données que des étapes, des traitements… C’est une fois arrivé à sa transcription dans des outils que la différence se fait parfois. Pourtant, cloisonner data et processus est une erreur : c’est la vision métier qui prime et elle ne doit pas être conditionnée à des contraintes techniques ou d’outils !

C’est cette association, cette interopérabilité entre data et process qui permet au processus d’adhérer réellement au Système d’Information, d’éviter la multiplication des outils et donc au final de renforcer l’agilité de l’entreprise et l’évolutivité du Système d’Information. Cette vision globale et partagée des processus et des données est au cœur des convictions de Blueway !

Le Processus Mining en synthèse

Le Process Mining est justement au croisement de ces deux sujets :

  • L’approche data : les données, leur structuration, leur centralisation, leur visualisation
  • L’approche Processus : la modélisation, l’automatisation et l’exécution d’enchainements de séquences d’événements

Le process Mining va ainsi analyser les données liées à l’exécution des processus afin d’en tirer des axes d’optimisation. Il est au croisement du BPM (Business Process Management) et du Data Mining (fouille et analyse des données).

Toutes les clés pour consolider l’avance stratégique que les
outils de PI pourront vous
apporter

En résumé le Process Mining est une analyse des processus au travers des données qui circulent dans leurs flux. Il se focalise donc sur les « faits » ! Les termes Process Mining et Process Intelligence sont très proches : La Business Process Intelligence (BPI) fait référence à l’application des techniques de data mining et de process mining dans le domaine de la gestion des processus métier (BPM).

De nombreux acronymes sont d’ailleurs apparus autour de ces thématiques ces dernières années comme BAM (Business Activity Monitoring), CPM (Corporate Performance Management) ou CPI (Continuous Process Improvement).

Mais concrètement, à quoi sert le Process Mining ?

Dans les organisations, tout est processus. Durant leur cycle de vie, chaque processus va générer et modifier des quantités d’information très importantes. En multipliant cela par le nombre de processus au sein des organisations, on arrive à des volumes énormes de données qui sont généralement sous-exploitées.

Chaque application du SI peut certes analyser ses propres données. Cependant les processus sont transverses au Système d’Information et l’analyse de leurs données ne doit pas être cloisonnée par application ! Pour être efficace l’analyse des processus doit donc se positionner au niveau métier. Elle doit aussi englober les « event logs » qui sont habituellement peu exploités.

Le Process Mining répond à cet enjeu. Il analyse les données des processus opérationnels au niveau de l’ensemble du Système de l’Information, indépendamment de chaque brique logicielle. Il assure ainsi d’appréhender les processus tels qu’ils se déroulent réellement dans l’organisation. Par rapport à des analyses plus standards, il va s’appuyer et examiner les données liées aux événements en temps réel. Cette approche va lui permettre de corréler une masse énorme d’informations directement en lien avec le déroulement terrain des processus pour en tirer une compréhension 360° : comportements, réalité vs modèles…

Les bénéfices du Process Mining :

En vous permettant d’appréhender l’état et le fonctionnement réel de vos processus, le PM apporte des bénéfices à plusieurs niveaux : 

Améliorer la modélisation de processus

Améliorer la modélisation des processus

Identification d’axes d’amélioration sur la modélisation des processus (modèle théorique vs exécution pratique)

Améliorer opérationnellement les processus

Optimiser la mise en place opérationnelle

Découverte des leviers d’amélioration opérationnels (goulot d’étranglement, délais, étape non nécessaire…)

Simulation de processus

Prévoir et anticiper

Prévision au travers de scénarios de tests et optimisation prospective.

Il s’agit ainsi non seulement de « prendre le pouls » des processus mais aussi de réaliser des projections et des simulations. Le Process Mining fait ainsi le lien entre la gestion des processus et l’amélioration de la performance des organisations.

Comme le Process Mining est en grande partie automatisé (algorithmes…) et se base sur des données réelles, il limite les ressources requises au sein de l’entreprise. C’est aussi une démarche objective comme elle se base sur des algorithmes et des données réelles !

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Exemples de cas d’usage du Process Mining

Le Gartner liste cinq cas d’utilisation courants pour le Process Mining : l’amélioration des processus par la découverte et l’analyse de processus algorithmiques; l’amélioration de l’audit et de la conformité par la comparaison, l’analyse et la validation des processus algorithmiques, l’automatisation des processus par la découverte et la validation des opportunités d’automatisation, la transformation numérique en reliant la stratégie aux opérations, l’optimisation des ressources des opérations informatiques par la découverte et l’analyse algorithmiques des processus informatiques.

Process Mining : comment cela fonctionne-t-il ?

Le Process Mining analyse l’utilisation réelle des processus actifs à partir des données transactionnelles et événementielles du Système d’Information.

Cette analyse se déroule en plusieurs étapes : 

L’étape de découverte du process mining

1 Découverte

La visualisation du processus réel, tel qu’il s’est déroulé à partir des données issues des journaux d’événements du SI. La complexité de la représentation est adaptée selon les objectifs.

L’étape de conformité du process mining

2 Conformité

Ces processus reconstruits à partir du réel sont ensuite comparés avec leurs modèles théoriques. Il est ainsi possible d’identifier si les procédures et les règles de l’organisation sont respectées.

L’étape d’amélioration du process mining

3 Amélioration

Les données normalisées et consolidées sont valorisées sous des formats graphiques facilement exploitables afin d’en tirer des axes d’amélioration.

L’étape de simulation du process mining

4 Simulation

A partir des données et des déroulés réels des processus, le Process Mining peut simuler les processus et les projeter dans des scénarios futurs afin d’identifier leurs comportements et les points faibles.

Blueway et le Process Mining

Notre objectif chez Blueway est de réunifier les différentes dimensions des échanges de données, et en particulier les facettes processus et data. Nous repositionnons ainsi les hommes sur leur valeur ajoutée et mettons les données à leurs services.

C’est pourquoi, la solution Blueway est la seule plateforme qui réunit les usages BPM, MDM, ESB et API Management. C’est grâce à cette approche exhaustive des flux d’informations dans l’entreprise qu’elle intègre cette démarche de Process Mining.

Vous souhaitez en savoir plus sur le Process Mining ? Échangez avec nos experts !

Au plaisir de discuter avec vous !

HubEE : service public

Synthèse du webinar Blueway & CD56 : comment réussir le passage à HubEE pour les acteurs du service public ?

Lors du webinar du 29 septembre 2022, Blueway a donné la parole au Conseil Départemental…

SDIS : Améliorer son Système de Gestion Opérationnelle en 5 points

Le contexte des SDIS (Service Départemental d’Incendie et de Secours) est loin d’être…

Plateforme omnicanal : les solutions

Retail : la stratégie omnicanal ne peut pas se passer du DSI !

La grande distribution subit de plein fouet l’impact du digital. Pour rester dans la course…

BPM : gagnez du temps de travail

Récupérer 3 semaines de travail grâce au BPM

Il reste encore des efforts à fournir pour optimiser le temps de travail des…

Choisir un logiciel workflow : quels critères retenir ?

Quel logiciel de workflow choisir pour automatiser vos processus ?

Gérer un flux de travail (la traduction de workflow) consiste à coordonner un ensemble…

BPMN 2.0 : décryptage Business Process Model and Notation

Qu’est-ce que la norme BPMN 2.0 (Business Process Model and Notation) ?

Les personnes qui interviennent sur chacun des processus de votre organisation sont nombreuses…

Comment choisir le meilleur logiciel BPM ?

Piloter ses processus pour répondre aux enjeux des métiers et de la donnée : comment choisir le meilleur logiciel BPM pour votre organisation ?

Comment choisir un logiciel BPM (Business Process Management) adapté à son organisation sans…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

La mise en qualité des données,
une évidence et un impératif

Tous les processus d’entreprise reposent aujourd’hui sur la donnée, de même que les analyses et le pilotage des projets. Les stratégies data-driven deviennent la norme, faisant dès lors de la mise en qualité des données un sujet central.

Si ce sujet pourtant évident reste en suspens pour bon nombre d’entreprises, c’est que les enjeux de la qualité des données ne sont pas toujours mesurés à leur juste valeur, et que l’organisation à mettre en place et les priorités soulèvent de nombreuses questions.

La qualité des données impacte chaque maillon de la chaîne d’information. Surcoûts inutiles, déperdition d’efforts, mauvaises prises de décision… les conséquences sont importantes sur :

  • Les processus et leur exécution : les fausser, c’est dégrader la qualité du produit ou du service final, c’est aussi perdre en efficacité et engendrer des erreurs qui peuvent être critiques si le processus est sensible.
  • La relation client : dans les échanges avec le service après-vente ou tout autre opération liée à la GRC (site e-commerce, informations clients…), la donnée doit être exacte pour accélérer la résolution des problèmes/questions et ne pas nuire à l’image de l’entreprise.
  • Les choix stratégiques : baser ses analyses sur des données de mauvaise qualité, c’est immédiatement risquer de prendre de décisions inadaptées et sélectionner des solutions qui ne sont pas adéquates.

Sans être exhaustif, ce triple enjeu suffit à illustrer l’importance de la mise en qualité des données.

Interview d’expert :
Deux retours d’expérience complémentaires sur la mise en place de solutions MDM (Master Data Management)

Quelles étapes suivre
pour mettre en qualité ses données ?

La mise en qualité des données ne peut être réalisée en mode « Big Bang ». Elle nécessite de bien connaître son organisation. Il est essentiel de structurer sa démarche de façon à couvrir tous les aspects et à bien cadrer le projet :

Audit de la donnée et définition des usages 

Mettre en qualité ses données, c’est d’abord bien les connaître ! Il est important d’auditer ses données — nomenclature, mode de gestion, processus qui l’utilisent… — et de réaliser une cartographie.

En effet, la qualité de la donnée dépend en grande partie de l’usage qui en sera fait. Il faut donc décider des critères essentiels qui présideront à sa mise en qualité. On se concentrera en premier lieu sur l’exactitude, l’exhaustivité, la pertinence, l’actualité ou encore la cohérence de ces données.

Les objectifs, besoins et attentes des métiers doivent présider aux choix de format, de contenu et de disponibilité. Il est primordial que la donnée soit exploitable rapidement par toutes les applications concernées.

A la définition des usages futurs de la donnée doit s’associer un audit précis de l’existant.

Une analyse statistique des données permettra d’en connaître l’état actuel (anomalies, doublons, valeurs) et de déterminer les relations entre tous les jeux de données.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Définition de règles de formulation et de gouvernance de la donnée

Vient ensuite le choix des règles, de l’organisation et des outils. Ceux-ci permettront de maîtriser la donnée et d’y accéder en temps voulu, selon des parcours de validation établis.

Pour mettre en place une gouvernance de la donnée, on définira en particulier les points suivants :

  • Le contenu des méta-données : celles-ci consignent à la fois la nature des données et le traitement à leur apporter. Leur gestion sémantique doit donc être complète et pointue pour garantir que tous les utilisateurs trouvent facilement les jeux de données adéquats et adaptés à leur besoin.
  • Les outils de recherche et d’unification de la donnée : le dictionnaire de données — qui liste et classifie l’ensemble des données de l’entreprise —, le glossaire de données — pour les explications sémantiques des données et leur contextualisation — et le Data Catalog — mettant en relation glossaire et dictionnaire — participent à l’alignement des visions IT et métier.

Plus unifiées, les données répondent ainsi aux besoins fonctionnels des métiers tout en étant plus simples à partager.

  • Des rôles doivent également être définis pour contrôler la donnée et son enrichissement. Des collaborateurs tels que le Chief Data Officer, et plus opérationnellement le Data Steward ou le Data Quality Manager, seront directement responsables de la qualité des données et de leur préparation pour un usage rapide par les métiers. Leur tâche est également de préparer la diffusion de la donnée dans un contexte de forte exigence des marchés (besoin de gérer le cycle de vie de la donnée, de traçabilité, de conformité réglementaire). Plus globalement, ils participent aussi à faire progresser « culture data » de l’entreprise.

Au-delà des ces points opérationnels, l’entreprise doit aussi prendre du recul sur sa stratégie data et sur l’organisation de sa gouvernance. Celle-ci peut passer par la mise en place d’une instance de gouvernance de la donnée et repose aussi sur une acculturation des équipes aux enjeux autour de la donnée (ou Data Literacy). Dans tous les cas, cette vision doit être transversale à l’entreprise et portée par des membres de la direction.

Une fois le cadre défini, la démarche de mise en qualité elle-même peut être initiée.

Avant d’implémenter une solution, il est important de formuler une trajectoire et des étapes clés. Une réflexion qui doit mutualiser les visions technique et métier : le formatage des données pour les métiers ne sera utile que si les flux sont maîtrisés et les solutions bien intégrées au SI et inversement !

Sélection et implémentation des solutions liées à la mise en qualité des données

La démarche de mise en qualité des données est multifacettes. Adopter une triple approche « données / flux / processus » est le meilleur moyen de mener une réflexion complète sur la centralisation et l’harmonisation des données. Il est en effet crucial que la donnée conserve toute son intégrité, de la collecte jusqu’à l’utilisation métier.

La combinaison des solutions MDM, ESB et BPM permet de traiter la donnée sous chaque angle et de concilier vision technique et prérequis métiers.

MDM

Le Master Data Management (ou Gestion des Données de Référence) compile une version unique et qualitative des données : dédoublonnage selon des règles métiers personnalisables, traçabilité et contrôle, suivi des données tout au long de leur cycle de vie. L’outil génère automatiquement des webs ervices d’acquisition et exposition des données, harmonisant la data qui sera partagée à l’ensemble du SI.

ESB

Le bus applicatif normalise quant à lui les échanges, participant à conserver une donnée unifiée et exploitable entre toutes les applications et pendant tout son cycle de vie. L’interaction MDM/ESB est bidirectionnelle, avec un enrichissement du référentiel de données par les applications métiers elles-mêmes.

Les données transmises aux applications du SI sont sécurisées (cryptage, compression, procédures de validation) et l’emploi de demi-connecteurs contribue à une donnée moins transformée.

BPM

Le Business Process Management permet de faire vivre la donnée tout au long de son parcours et de la mettre à profit des métiers. Au fil des processus, les métiers participent à son enrichissement et accroissent sa valeur. Cette démarche assure une excellente adhérence des processus au SI, et une interopérabilité forte entre processus et datas.

Projet d’urbanisation du SI : n’oubliez pas d’intégrer des activités humaines !

Quelle que soit la solution — ou la combinaison de solutions — choisie(s), il est important de procéder par étapes : lorsqu’il s’agit de mise en qualité des données, comme nous l’expliquions précédemment, l’approche Big Bang n’est pas pertinente. La trajectoire sera définie selon les périmètres de données prioritaires afin d’avancer par étapes et consolider au fur et à mesure. Sur chacun, la donnée devra subir une véritable préparation (collecte, élimination des doublons, ajout des valeurs manquantes) et la connectivité des solutions être contrôlée en cours d’implémentation pour fournir des bénéfices rapides. Il ne s’agit pas de mettre en place des briques ESB, MDM, BPM… mais qui communiqueraient mal !

Intervention en temps réel et amélioration en continu de la qualité des données

Par ailleurs, la mise en qualité des données ne s’arrête pas à l’étape d’implémentation d’une solution : il est en effet nécessaire de la suivre au fil du temps et des évolutions organisationnelles et applicatives de l’entreprise.

Pour cela, il est essentiel d’associer dynamiquement les activités humaines et techniques : l’humain est partie intégrante de la chaîne au travers d’IHM et de la possibilité d’agir sur les données pour les enrichir, corriger, valider…

La mesure, mais aussi les systèmes de rappels et d’alertes doivent permettre d’identifier et de solutionner en temps réel les problèmes de qualité les plus importants. Un outil de gestion des incidents permettra de mieux remonter à la source des erreurs : reporting, tableaux de bord et assignation des tâches permettent d’améliorer en profondeur les processus et de corriger les erreurs de saisie et les autres causes de disfonctionnements. Cette console de pilotage doit prendre en compte aussi bien la supervision des flux de données, des processus que de la data quality

Ainsi, les problèmes de qualité de la donnée doivent pouvoir être signalés aux métiers au moment de leur apparition, mais aussi de manière régulière au sein de rapports et tableaux de bord. Ceci permet d’instaurer davantage de bonnes pratiques lors de la saisie et de faire entrer la mise en qualité dans la culture de l’entreprise.

L’automatisation soutiendra quant à elle le respect des règles définies en début de parcours. Les solutions choisies doivent permettre la validation systématique des données avant consignation dans le référentiel. Au gain de qualité, s’ajoute un gain de temps !

Chez Blueway, nous avons la conviction que data, flux et process sont interdépendants et servent tous l’enjeu de qualité des données. La gouvernance des données et les solutions à mettre en place doivent donc intégrer l’ensemble de ces dimensions. C’est la vocation de la plateforme Blueway !

Vous souhaitez échanger sur les solutions de MDM ? Prenez rendez-vous !

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Quelles causes pour les silos de données ?

Les silos de données sont encore une réalité pour bien des organisations. Fragmentées par les pratiques des différents services et la collecte massive d’informations, ces données sont pourtant stratégiques pour l’entreprise. Fiabilité, unicité, valorisation pour toute l’entreprise, exploitabilité sont des impératifs ! Informations client, données financières ou liées au transport de marchandises : le désilotage de toutes les données passe par une bonne connaissance des causes, par la mise en place d’une organisation et de pratiques adaptées et par l’emploi des bons outils applicatifs.

Les silos de données nuisent tant à l’opérationnel et au SI qu’à la stratégie d’entreprise

Les silos de données sont synonymes d’informations métier cloisonnées dans les services au lieu de circuler dans l’entreprise et d’être valorisées. La conséquence : une perte d’efficacité aussi bien dans le quotidien des équipes qu’au niveau technique et décisionnel de l’entreprise.

Pour les collaborateurs, ces silos de données ont concrètement pour effet de :

  • Diminuer l’efficacité et le temps disponible des équipes, qui doivent retrouver et trier les données lorsque celles-ci sont nécessaires
  • Créer des doublons de données entre services, que les silos empêchent de rapprocher, et donc d’éliminer
  • Rendre l’obsolescence des données et leur cycle de vie difficiles à contrôler : un problème de taille pour le respect des réglementations, notamment le RGPD
  • Limiter l’enrichissement des données et le travail collaboratif : plusieurs versions de la donnée coexistent, lesquelles divisent la vision et créent des incohérences entre services

Plus globalement, cette forme de rétention de la donnée empêche le partage des visions métier, pourtant essentiel pour apporter précision et qualité au produit ou au service final.

Les silos ont également des impacts majeurs sur la circulation des flux de données, tels que :

  • Une plus grande lourdeur de l’IT : les silos créent un besoin de stockage plus important et de nombreux doublons
  • Le croisement des données issues de services différents est une opération complexe, contraignante sur le plan technique
  • La circulation de la donnée entre services cloisonnés génère des lenteurs et des interruptions : celles-ci nuisent non seulement à l’efficacité des métiers, mais aussi au parcours des utilisateurs. Il est alors impossible d’instaurer une expérience omnicanale.

Enfin, les instances décisionnelles de l’entreprise subissent elles aussi les retombées de l’organisation en silos : une information compartimentée, obsolète ou en doublon peut mener à des stratégies erronées et à des prises de décision préjudiciables pour l’entreprise.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Les 3 sources des silos de données

On peut identifier trois principales sources à l’origine des silos de données :

1. Une organisation aux services cloisonnés

  • Les départements ont historiquement l’habitude de travailler sur leurs propres dossiers, avec leurs propres outils et sans les préparer au partage (feuilles Excel, outils métier de gestion d’entrepôt ou RH…).
  • Les normes, procédures et méthodes diffèrent d’un service à l’autre et appellent une collecte et un stockage des données différents (les canaux online et offline, par exemple, sont fréquemment séparés).
  • L’organisation de l’entreprise elle-même favorise parfois les silos et doit être entièrement repensée pour mener à la circulation transversale des données

2. Un SI peu ou pas adapté

  • L’architecture du SI peut ne pas être, à l’origine, pensée pour faire circuler l’information dans toute l’entreprise : les applications, appartenant autrefois à des plateformes propriétaires séparées, ont formé au fil du temps des couches systèmes hétérogènes et peu communicantes.
  • L’entreprise ne dispose pas toujours d’applications dédiées au transport de la donnée (ESB, EAI…)
  • Les outils de collecte et transport de la donnée ne prennent pas forcément en compte certaines spécificités métier importantes
  • L’information n’est pas centralisée ni unifiée. En l’absence de données de référence, les pratiques restent compartimentées par service

3. Une défiance envers l’ouverture des données

  • Chaque service souhaite généralement conserver ses méthodes et spécificités
  • Le changement technologique implique un effort et des changements d’habitudes chronophages
  • Les services redoutent de ne plus contrôler l’usage qui sera fait de leurs données

Projet d’urbanisation du SI : n’oubliez pas d’intégrer des activités humaines !

Instaurer une version unique de la donnée dans l’entreprise

Les données non unifiées freinent considérablement l’efficacité des entreprises. Leur bonne intégration doit donc être une priorité.

La gouvernance des données permet de mieux maîtriser les flux et d’organiser l’entreprise autour d’une version unique de la vérité, qui sera relayée d’un service à l’autre et actualisée en temps réel par les métiers concernés. Elle implique :

Un changement de culture des équipes : celles-ci doivent désormais aborder la donnée comme un outil de l’entreprise, et non un élément limité à leur seul département. Les outils collaboratifs viendront soutenir ce changement de culture et faciliter le contrôle de l’enrichissement par plusieurs sources.

Un soutien de l’IT : les outils logiciels doivent ancrer les pratiques de partage des données dans le quotidien. Il est impératif de choisir des applications qui harmonisent le SI et accélèrent les flux de données métiers, sans limitation de format.

Plus de transversalité des processus : ceux-ci doivent être fluides et non limités par les silos applicatifs ou les cloisonnements entre services. Prendre du recul sur les intervenants de chaque processus permet de mieux les exécuter.

Dans la pratique, pour structurer les flux de données et atteindre ce triple objectif, deux outils essentiels sont à privilégier : le référentiel MDM et le bus applicatif ESB se combinent pour définir et faire circuler une donnée qualifiée unique, simple à enrichir et à partager entre les métiers.

MDM

Un référentiel central qui permet de maîtriser la qualité et l’exhaustivité de la donnée. Les règles de gestion métier permettent de s’adapter très exactement aux pratiques de l’entreprise et de partager des données fiables.

Au préalable, il est essentiel de procéder à une mise en qualité des données pour éliminer les doublons et adapter la data aux pratiques de l’entreprise.

ESB

Un bus applicatif qui fait communiquer les applications, quel que soit leur format de données.

Les flux sont simplifiés et les données peuvent être enrichies par les intervenants en toute transparence.

L’ESB instaure une circulation cohérente et supervisée des flux, simplifiant le partage entre services et favorisant l’engagement des métiers.

Au-delà du désilotage de la donnée, l’urbanisation du SI permet d’améliorer la disponibilité des applications, et donc l’efficacité des métiers. Un cercle vertueux qui profite, en bout de chaîne, aux prises de décision et à la stratégie.

L’offre Blueway exploite pleinement la complémentarité entre MDM et ESB : la donnée qui circule parmi vos applications est fiable, à jour, et bénéficie immédiatement aux processus métiers. Les silos peuvent ainsi être éliminés sans contrainte majeure pour les collaborateurs, entraînant de vraies synergies au sein de l’organisation.

Vous souhaitez échanger sur les solutions de MDM ? Prenez rendez-vous !

Comment mettre en place une solution de data management ?
Isabelle

Les entreprises ont maintenant pleinement conscience des enjeux de contrôle des données de référence et de qualité des données. Cependant, initier la transformation et mettre en œuvre les projets de MDM soulève encore et toujours des questions de méthodes et requiert une maîtrise des bonnes pratiques. 

Dans cette interview, Isabelle François, nous partage ses retours d’expérience sur deux projets de mise en place d’une solution de data management.

Pourrais-tu nous partager les contextes des deux projets MDM que tu as accompagnés ? 

Isabelle François : Le premier retour d’expérience s’est déroulé au sein d’un groupe industriel leader de l’emballage plastique alimentaire. Le contexte projet suit un schéma que l’on retrouve souvent : l’entreprise prévoyait de changer d’ERP d’ici un an et désirait anticiper ce projet majeur. Il souhaitait donc centraliser et mettre en qualité l’ensemble des données afin d’être prêt le jour de la bascule sur le nouvel ERP.

L’enjeu était aussi de nettoyer la donnée et de disposer d’une solution robuste, capable de diffuser l’information vers les applications sources. La priorité portait sur les objets articles et fournisseurs. En effet, la donnée était auparavant très peu centralisée, avec des requêtes techniques qui transitaient dans chaque application source. Impossible pour le siège de disposer d’une vision consolidée et agrégée des données ! On retrouvait des problématiques classiques comme la redondance d’information. Chaque application créait par exemple elle-même son fournisseur. On imagine bien les impacts que cela peut avoir au sein d’un grand groupe international…

Le deuxième projet a pris place dans un groupe international du secteur de la santé, avec des problématiques similaires. Les tiers pouvaient avoir plusieurs facettes : clients, fournisseurs… et le siège avait besoin d’avoir une vue d’ensemble des implications entre les tiers. Les enjeux étaient stratégiques : faut-il mettre en place une centrale d’achat ? Comment disposer d’une vision globale et consolidée des flux entre toutes les entités ? Avec des applications cloisonnées qui ont chacune leur propre logique et sont concentrées sur leur périmètre métier, c’est extrêmement compliqué à harmoniser.

La mise en place et l’organisation du projet de master data management a été similaire ?

I.C : Non ! Ce n’est pas parce que la cible est la même que la mise en place suit le même déroulé. Ces deux projets en sont un bon exemple. Il faut s’adapter à la maturité de l’entreprise et aux ressources internes.

Dans les deux cas, les projets MDM ont débuté par l’entité « fournisseur ». Il est souvent préférable de mettre en place les automatismes et les bonnes pratiques sur un objet plus simple, et ensuite d’ouvrir le périmètre à des entités plus complexes, comme le « produit » par exemple.

Au sein du groupe pharmaceutique, ce sont les équipes internes qui ont piloté la reprise de données au sein de notre logiciel MDM. Il y avait en parallèle un enjeu fort de mettre en place des processus pour la saisie des nouveaux fournisseurs ainsi que l’évolution et l’extension des fournisseurs existants. C’est nous qui avons pris la main sur cette dimension au travers de notre brique BPM (Business Process Management).

C’est au travers de cette brique BPM que s’est construit le « golden record » ou version de référence de la donnée. Ainsi, ces processus garantissent l’unicité de la donnée fournisseur en permettant aux intervenants de saisir les informations et de les enrichir au travers d’une suite d’interfaces. Chaque rôle va compléter et valider la donnée. Le BPM peut ensuite diffuser l’information vers les autres applications, SAP en particulier.

Dans le projet au sein du groupe industriel, nous avons coaché l’équipe du client et nous les avons guidés tout au long du projet. La première étape que nous avons pilotée, a été la reprise de données avec une trentaine de sources différentes ! Il y avait dans ce projet MDM un vrai enjeu d’industrialiser la reprise de donnée et de développer un service central pour la mettre en forme et l’intégrer dans le MDM.

Pour industrialiser la reprise de donnée, il fallait à tout prix éviter de multiplier les services selon les applications sources. Cela aurait été un vrai risque pour la mise en qualité et l’unicité de la donnée.

Isabelle François

Les données étaient ainsi récupérées automatiquement dans le MDM de Blueway en provenance de sources très variées et avec des formats hétérogènes, puis analysées et renvoyées aux sources une fois mises en qualité. En l’espace de trois mois, nous avons réussi à intégrer toutes les datas fournisseurs en provenant de plus de 30 sources, un vrai challenge ! Le premier mois, nous avons rapidement identifié les erreurs de formats, de saisie, de doublon… au sein des applications sources. Les équipes métiers du client avaient parfaitement compris les enjeux du MDM et ont été très réactives pour effectuer les corrections.

Avec ce processus industriel, les sources pouvaient continuer d’alimenter le MDM automatiquement, en attendant l’intégration du nouvel ERP.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Y a-t-il eu des contraintes spécifiques pour déployer ces solutions de data management ? 

I.C : Au sein du groupe pharmaceutique, les contraintes portaient avant tout sur les règles fonctionnelles très pointues à mettre en place au sein du BPM. Par exemple, les règles de saisie variaient selon les types de fournisseurs, la gestion de droits imposait un routage très fin des tâches et des données selon la société et l’utilisateur…

L’objectif était de contrôler toute création ou modification de fournisseur, quelle que soit la société du groupe. Il s’agissait d’arrêter de créer des fournisseurs dans chaque application et tout centraliser au sein du BPM de Blueway pour ensuite redistribuer l’information vers les applications sources.

La dimension internationale des deux projets a aussi impliqué d’avoir des applications entièrement multilingues. Ce sont des enjeux courants, mais qui revêtent des impacts particuliers dans le cas de solutions de data management.

Comme toujours, le cadrage des règles en amont, en évitant les modifications en cours de projet, est un vrai facilitateur pour éviter des impacts sur le planning. Changer les règles du jeu en cours de route implique de relancer des batteries de tests !

Avec l’arrivée du marketing dans le projet sur la partie catalogue, une fois l’entité fournisseurs traitée, on s’est aussi rendu compte de l’importance d’adapter la démarche selon les utilisateurs. Le marketing portait par exemple beaucoup plus d’importance à l’ergonomie des écrans que les utilisateurs de l’ERP. Nous avons ainsi fait évoluer l’interface pour répondre à leurs besoins et faciliter l’adoption de la solution.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Y a-t-il des points que tu souhaiterais mettre en lumière sur ces projets de data management ?

I.C : Avoir des équipes côté client disponibles, investies et avec des rôles bien définis est un vrai gage de succès. Par exemple, dans l’un des projets, l’équipe client était constituée du sponsor du projet pour valider les grandes orientations, d’un interlocuteur technique et d’une personne externe qui travaillait sur la modélisation de la donnée. Un bon trio !

L’industrialisation de la reprise de la donnée était une démarche très intéressante et qui a vraiment accéléré et fiabilisé le déroulement du projet. C’était aussi l’occasion de confirmer que Blueway était adapté pour de la récupération massive de données.

Ces projets ont aussi permis d’avancer sur le produit. Être à l’écoute du client pour répondre précisément à son besoin et intégrer les bonnes idées dans les prochaines versions de nos solutions fait partie de notre ADN. Nous sommes une PME, nous savons être agiles !  

Pour conclure, ces deux projets sont des bons exemples des atouts de Blueway. Notre client industriel nous avait sélectionné pour notre capacité à industrialiser la reprise de donnée, sans développement lourd, et servir de solution robuste en attendant la mise en place de l’ERP. Pour notre client pharmaceutique, c’est le lien entre BPM et MDM qui a fait la différence.

Dans ces deux cas, des enjeux qui peuvent paraître distincts : MDM, BPM, ESB… sont en fait très complémentaires pour réussir les projets autour de la donnée. C’est cette conviction qui est à l’origine de notre plateforme Blueway !

Vous souhaitez échanger sur les solutions de MDM ? Prenez rendez-vous !

Au plaisir d’échanger avec vous!

Intégrité des données ou data integrity

Quels sont les points d’attention et les bonnes pratiques pour assurer l’intégrité de vos données ?

Introduction : rappel sur l’intégrité des données Assurer l’intégrité des données…

Quels enjeux et outils pour la gouvernance de données ?

Quels outils pour accompagner la mise en œuvre de la gouvernance de données de votre organisation ?

La volonté de mettre en place une stratégie de gouvernance des données est souvent présente…

Quelles sont les 4 étapes clés pour mettre en qualité ses données ?

La mise en qualité des données, une évidence et un impératif Tous les processus d’entreprise…

Quelle démarche et quel RCU adopter pour soutenir sa stratégie customer-centric ?

Le RCU et son rôle central pour la qualité des données client Offrir une véritable continuité…

MDM vs PIM : différences des logiciels

Omniprésence des données : comment choisir entre MDM et PIM ?

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies…

Choisir d’implémenter un portail fournisseur 

Mettre en place un portail fournisseurs pour accélérer son référencement produit… et bien plus !

Le référencement produit : un enjeu de taille pour les retailers Face à la multiplication…

Quelles typologies de data hub MDM ?

Les différentes typologies de data hub pour le MDM

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel…

Master Data Clients pour les Directions Marketing

Le MDM au secours des Directions Marketing et des Master Data Clients

A l’heure du Big Data et de l’évolution des Directions Marketing vers des stratégies…

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

Le Data Steward, maillon fort de la gouvernance des données La quantité de données collectées…

Qu’est-ce-que le Data Lifecycle Management ?

Le Data Lifecycle Management : comment maîtriser chaque étape du traitement de la donnée ?

Adopter une vraie démarche de gouvernance des données n’est plus une option : il en va de…

Pourquoi intégrer ses données d’entreprise ?

Le sujet de l’intégration des données n’est pas nouveau : les entreprises ne peuvent plus ignorer le besoin d’unifier et qualifier leur data ! Cependant, beaucoup de décideurs repoussent l’échéance du changement : l’intégration, que l’on peut définir par la mise en commun et la transformation des données depuis des sources multiples en vue de les rendre exploitables, est souvent perçue comme non essentielle face à des projets innovants plus attractifs. Pour ces organisations pourtant, il est plus que temps de finaliser cette opération, socle de la transformation ! L’entreprise peut tirer la valeur des projets liés aux applications métier, à l’IoT ou au SI hybride uniquement sur la base de données saines, cohérentes et rapidement exploitables. Les architectures non urbanisées freinent non seulement les avancées technologiques de l’entreprise, mais grèvent également le TCO du système d’information.

L’intégration des données est bel est bien un enjeu fondamental, qui doit être considéré dans sa globalité : car au-delà de l’urbanisation du SI, ce sont tous les processus métiers qui dépendent de la qualité des flux de données.

Le manque d’intégration des données et son impact sur l’organisation

Aujourd’hui encore, beaucoup de SI sont trop peu structurés, ce qui se manifeste par :

  • La coexistence d’applications anciennes et modernes communiquant en point-à-point : ce mode de fonctionnement n’est plus envisageable au vu de la diversité des sources d’information qu’exploitent les entreprises.
  • Des formats de données nombreux et non standardisés : le dialogue entre applications hétérogènes ralentit la communication, génère des erreurs et des doublons et rend difficile l’enrichissement de la data.
  • Une traçabilité des erreurs faible ou inexistante : faute de réel suivi, les blocages sont difficiles à identifier et solutionner.

Ce manque de structuration a des conséquences sur le plan technique, organisationnel et stratégique : il conduit à un traitement fastidieux des erreurs pour chaque application métier, faisant perdre un temps précieux aux équipes métier et à la DSI. Les équipes sont ainsi mobilisées sur la maintenance et la correction des erreurs au lieu de pouvoir se concentrer sur les projets innovants. De plus, la donnée est collectée de manière incomplète, ce qui nuit au croisement des informations et à la prise de décision.

Il n’est pas superflu de le répéter : la bonne intégration des données est la première étape pour exploiter celles-ci correctement ! Les données sont à la fois au cœur des flux et des processus de l’entreprise, leur qualité est donc un sujet capital.

Que la transition numérique soit largement amorcée ou à ses prémices dans l’entreprise, il est temps pour les décideurs et les DSI de se pencher sur le sujet et de solutionner enfin le problème une fois pour toutes !

Comment traiter pour de bon la question de l’intégration de données

Une intégration efficiente implique de collecter et transporter la donnée, mais aussi de pouvoir la centraliser et de l’enrichir dès que cela est nécessaire, avec une répercussion automatisée des modifications à tout l’écosystème applicatif.

Des solutions simples et complémentaires existent pour répondre efficacement à ce besoin :

Comment intégrer ses données avec l’ESB ?

L’ESB (ou bus applicatif) urbanise les flux et les sécurise, deux prérequis essentiels pour les entreprises dont le Système d’Information évolue. Plutôt que d’aller chercher la donnée à chacune de ses sources, les applications métier peuvent récupérer celle-ci dans le bus applicatif grâce à un mode d’échange normalisé. La capacité de transformation des formats de données par l’ESB permet aux applications de dialoguer en continu.

Le référentiel de données unique MDM permet de centraliser et gérer des données de référence saines, que les applications pourront utiliser. Les doublons et silos d’information sont éliminés. Le MDM s’associe à l’ESB pour faire circuler dans le SI une data contrôlée et distribuer la même information à toutes les applications.

Comment le MDM facilite l’intégration de données ?

Par le couplage de ces deux solutions, on obtient des flux de données fiables et traçables, mais surtout plus pérennes. La mise en œuvre de l’ESB et du MDM fluidifie les échanges inter-applicatifs et garantit l’intégration des données : pourquoi ne pas franchir le pas dès à présent ?

Projet d’urbanisation du SI :
n’oubliez pas d’intégrer des activités humaines !

L’intégration de données comme socle pour l’innovation

Bien sûr, l’intégration des données n’est pas une fin en soi. Elle n’est là que pour servir vos objectifs métiers et accélérer votre transformation. 

En effet, les flux de données circulent dans toute l’entreprise et alimentent ses processus. Améliorer la qualité de la donnée et son transport, c’est donc augmenter la performance de ces processus via :

  • Le gain de temps : mise en qualité avant distribution, transport automatisé synchrone ou asynchrone, élimination de tâches de codage chronophages…
  • La réduction des erreurs : collecte de la data automatisée qui prévient les oublis et les erreurs, mises à jour automatiques et modifications automatiquement répercutées, rapports toujours actuels…
  • La collaboration : meilleur dialogue entre les applications (et donc les métiers), enrichissement des données par tous les intervenants, accès simplifié depuis des sites distants…
  • L’amélioration continue : identification des problèmes liés à la donnée, adoption de bonnes pratiques, préparation des données avant diffusion…

Pour les DSI, l’intégration des données n’est pas une finalité : ses objectifs doivent être expliqués en interne de l’organisation pour faire comprendre l’importance du projet. L’unification des flux circulant à tous les niveaux permet avant tout de se préparer aux défis posés par l’innovation :

L’intégration des données pour servir l’IoT

IoT

Les objets connectés constituent de nouvelles sources d’information, amenées à échanger fréquemment avec le SI. Ces nouveaux dispositifs posent des questions d’efficacité et de sécurité inédites. La donnée doit être échangée avec le même niveau de qualité qu’elle le serait sur site.

Comment l’intégration de données peut faciliter l’exploitation du Big Data ?

Big Data

La quantité de données à traiter ne cesse d’augmenter : le Big Data implique de fortes volumétries, des données hétérogènes et un besoin de traitement rapide. L’automatisation intelligente des flux devient indispensable pour tirer parti des data lakes.

Comment faire face au SI Legacy en intégrant ses données ?

Migration du SI Legacy

Pour faire face à l’évolution rapide des formats et des nouvelles applications, le SI existant doit dialoguer vite et efficacement. L’harmonisation des flux est au service de la communication entre anciennes et nouvelles applications.

Intégration des données et Cloud hybride

Cloud hybride

Une infrastructure Cloud hybride offre plus d’agilité, à condition de pouvoir identifier ses flux critiques et dissocier facilement les applications pour les migrer.

Comment renforcer la BI avec l’intégration de données ?

Business Intelligence

Pour répondre efficacement aux besoins en visualisation et analyse de données, l’information doit être fiable, qualitative et enrichie.

Comment intégrer ses nouvelles applications métiers ?

Ajout de nouvelles briques applicatives

Les nouveaux outils métier s’intègrent plus facilement au SI lorsque les flux de données sont urbanisés.

C’est un fait : l’intégration des données va plus loin qu’une simple question d’infrastructure. Urbaniser ses flux et son SI, c’est en réalité s’offrir des outils pour accélérer la transformation digitale et les projets innovants dans l’entreprise. Les bénéfices de l’intégration des données pour les enjeux métier ne sont plus à démontrer. Les solutions existent et sont maîtrisées. Des arguments suffisants pour enfin passer à l’action, clore définitivement le sujet et vous concentrer sur les nouveaux projets stratégiques de votre entreprise !

Vous souhaitez échanger sur vos enjeux d’intégration de données ? Prenez contact avec nous !

Au plaisir d’échanger prochainement !

Comment faire communiquer ERP et WMS ?

L’ERP (Enterprise Resource Planning) et le WMS (Warehouse Management System) répondent tous deux à des besoins essentiels et complémentaires. Entre vision globale et gestion de terrain, il est souvent nécessaire de consolider l’information pour accélérer les traitements de commandes et mieux planifier ses stocks. La communication entre ERP et WMS a un impact sur l’organisation de l’entreprise, mais aussi celle du système d’information. Pour que ce lien inter-applicatif soit efficient et ne se dégrade pas au fil du temps, il est nécessaire de mettre en place une solution robuste et évolutive.

L’ERP, point d’accès central à l’information de l’entreprise

L’ERP est au cœur des organisations industrielles et de nombreux autres secteurs d’activité. Ce puissant outil de gestion et de pilotage centralise l’information métier et fournit un suivi de l’activité en temps réel. Son caractère global et ses tableaux de bord modulaires en font la solution maîtresse des décideurs et responsables métier.

En effet, l’ERP répond à un besoin de consolidation et de traçabilité de l’information : éléments financiers, des achats, de la production, des plannings…  Les produits sont ainsi suivis de leur conception à leur expédition et leur conformité est mieux assurée.

Ce progiciel de gestion intégré contribue à la rationalisation des coûts : grâce à l’élimination des erreurs et au soutien décisionnel, les entreprises maîtrisent mieux leurs projets et leur production.

L’ERP a une profonde influence sur le système d’information. Placé au cœur du SI, il offre un accès central à une part importante des données de l’entreprise, lequel simplifie en profondeur l’utilisation des multiples informations métier. Il est donc logique que les entreprises souhaitent le connecter avec d’autres outils du Système d’Information.

Comment le groupe Mecachrome a optimisé ses processus de demandes d’achat ?

Le WMS, solution de terrain qui transforme la gestion d’entrepôt

Parmi ces outils métier figure le WMS, ou Warehouse Management System. Ce progiciel encadre et soutient la préparation des commandes, optimisant l’espace disponible et améliorant la qualité des colis expédiés. Il instaure une gestion intelligente des entrepôts précieuse pour les entreprises dont l’activité est soutenue.

Parfois confondu à tort avec l’ERP, le WMS est en réalité un outil dédié, aux fonctionnalités avancées : celles-ci touchent à l’approvisionnement, l’entreposage, l’inventaire, ou encore la préparation. Le rôle essentiel du WMS : mettre en adéquation les ressources (espace disponible, préparateurs, transporteurs…) avec le besoin et la stratégie d’entreprise.

La solution a donc un impact fort sur la performance de la gestion des stocks. En facilitant la gestion d’entrepôt, elle permet de mieux anticiper la demande et les besoins futurs, et de mieux valoriser ses ressources.

La nécessaire communication entre deux solutions clés : ERP et WMS

Ces deux solutions, dont la place dans le SI est essentielle, doivent donc nécessairement communiquer pour délivrer la meilleure performance possible. L’intégration des outils est d’autant plus importante que la gestion d’un entrepôt est conditionnée par des informations provenant de l’ERP, et inversement :

  • Côté entreprise, la gestion d’entrepôt impacte notamment les ressources humaines à mobiliser, les finances à anticiper, l’orchestration des processus de production et de stockage pour optimiser l’espace disponible. Le WMS transmet des informations précises (stocks, marchandises réceptionnées ou expédiées) qui contribuent à la réduction des stocks coûteux ou non utiles, et plus globalement au pilotage de l’activité
  • Côté entrepôt, les processus sont conditionnés par ce que l’entreprise peut mettre à disposition et par la validation d’opérations (commandes, ajout de produits) via l’ERP. Ce dernier gouverne les prises de décision et transmet la donnée utile afin que les processus d’entrepôt soient bien exécutés. A la clé, une amélioration des capacités de stockage, l’élimination des tâches inutiles et donc des coûts réduits.

Les interactions entre ERP et WMS mettent en commun plusieurs visions métier : l’une plus stratégique, l’autre plus granulaire et opérationnelle. Les deux doivent impérativement parler le même langage et faire circuler l’information en temps réel.

Pour cela il va être nécessaire de :

ERP WMS Harmoniser les « langages » des deux outils

Harmoniser les « langages » des deux outils :

Le WMS doit disposer des codes et pratiques de l’ERP pour s’harmoniser avec les processus en vigueur.

Data governance for lifecycle management

Eviter les doublons :

Une information saisie à la fois côté entreprise et côté entrepôt peut créer un doublon. Le rapprochement doit être automatique et l’orchestration des flux d’informations doit permettre d’éviter les erreurs.

Business processes with BPM

Informer instantanément chaque partie en cas d’évolution majeure :

Commandes spécifiques, ruptures de stock et autre événement à fort impact sur l’activité doivent être notifiés de manière efficace d’un outil à l’autre.

MDM software servers and applications

Disposer d’une base d’articles exhaustive :

Les deux outils doivent travailler en synergie pour que tous les produits soient listés et leurs caractéristiques intégralement exploitables par le WMS. Pour cela, il est nécessaire de disposer du profil logistique des produits (propriétés, lot, conditionnement…).

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

Urbaniser son SI pour piloter l’interaction entre ERP et WMS

L’objectif, en reliant ERP et WMS, est d’instaurer des échanges d’informations instantanés et de ne pas restreindre les processus métier au périmètre d’une application. Ceux-ci vont contribuer à une meilleure sélection des produits stockés et une parfaite orchestration des tâches de préparation : réapprovisionnement automatique, contrôle qualité systématique, seuils d’alerte déclenchant une notification… Une fois remontées à l’ERP, ces données et alertes sont un socle d’amélioration de l’offre et des méthodes de travail.

Mais bien que fédérateur et puissant, l’ERP n’a pas vocation à assurer lui-même cette communication inter-applicative. Souvent considéré, à tort, comme une plateforme d’intégration par les entreprises, le progiciel de gestion est parfois relié aux outils métier via des connecteurs standards ou spécifiques, multipliant les interfaces point à point. Pourtant, si l’ERP est un outil clé du SI et supporte la gestion du transactionnel, il n’a pas vocation à unifier et transporter l’information !

L’évolution des pratiques et des formats de données, et les changements de briques applicatives ne doivent pas empêcher l’interaction entre ERP et WMS.

Ainsi, pour assurer la pérennité de la solution choisie, le plus important est d’opter pour la flexibilité : les briques applicatives doivent pouvoir être retirées ou modifiées selon l’évolution de l’entreprise. L’ERP et le WMS peuvent ainsi évoluer au fil de l’activité, le changement — ou le vieillissement — de ces outils ne constituant pas un frein.

Avec son approche globale des échanges de données, en particulier au travers d’un bus applicatif (ESB), Blueway apporte une relation inter-applicative flexible, évolutive et supervisée entre ERP et WMS. L’ERP peut à tout moment échanger une information complète et à jour avec le WMS et toutes les autres solutions métier. On évite ainsi les interfaces point à point peu évolutives : le SI s’urbanise autour d’une solution centrale et peut s’enrichir au fil des besoins.

Cette urbanisation garantit l’alimentation de tous les processus de l’entreprise. Loin d’être limitée à des périmètres métier, la donnée peut alors être pleinement exploitée, sans restriction applicative. La modélisation des processus au travers du BPM contribue alors à une distribution stratégique des informations d’entreprise à tous les intervenants qui en ont besoin, indépendamment des contraintes de chaque brique logicielle.

Ainsi, c’est non seulement le Système d’Information lui-même qui est rationalisé, mais aussi l’organisation et ses processus. Le bus applicatif permet de mettre véritablement le système d‘information au service des métiers, et de chaque brique applicative, ERP et WMS en tête. Un enjeu aujourd’hui prioritaire pour performer !

Vous souhaitez échanger sur l’interconnexion entre 2 applicatifs ? Prenez rendez-vous avec l’un de nos experts !

Au plaisir d’échanger avec vous !

Comment urbaniser son Système d’information hybride ?

Alors que l’idée de migration dans le Cloud est sur toutes les lèvres, les PME et ETI s’appuient encore majoritairement sur des infrastructures hybrides, entre Cloud et on-site.

Pour ces organisations, une transition progressive est souvent la seule manière d’avancer sans heurt, en faisant évoluer une à une les diverses briques applicatives. Les outils métiers s’intègrent ainsi à l’architecture dans le Cloud, en fonction des capacités techniques et au gré des besoins.

Au fur et à mesure de la progression des applications SaaS dans les entreprises, se créent des systèmes de plus en plus hybrides. Bien souvent, cet environnement composite est appelé à durer : dans les faits, peu d’entreprises peuvent imagin