Articles

Maîtriser ses API

Exposer la donnée plus vite… mais toujours garder la main

Les échanges de données entre entreprises partenaires sont de plus en plus nécessaires. Et lorsque le volume de ces échanges augmente rapidement, apparaît le besoin de les industrialiser.
L’ouverture des données via les API est adoptée par un nombre croissant d’entreprises. Les API simplifient en effet les échanges avec les partenaires, et bénéficient finalement à tout l’écosystème : clients, sous-traitants, fournisseurs… Mais cette ouverture ne peut se faire sans stratégie : elle nécessite une normalisation et un pilotage précis pour devenir un levier de performance pour toutes les parties.

Lorsqu’elle est maîtrisée et simplifiée, l’exposition des données s’accompagne de :

  • Une collaboration et un enrichissement mutuel des données par les parties prenantes
  • Un accès facilité à la donnée
  • La sécurisation des données et des services exposés grâce à des accès et des normes
  • La gestion de l’exposition des données tout au long de leur cycle de vie
  • La capacité à proposer des services à valeur ajoutée

Utilisateurs majeurs des API, les partenaires de l’écosystème et leurs développeurs doivent pouvoir évoluer en toute autonomie. Côté entreprise, on cherchera en tout temps à connaître le périmètre de consommation de chacune de ses API, à en contrôler la qualité et la facilité d’accès et à sécuriser les échanges.

Bien comprendre le portail API

Le portail API joue un rôle de centralisation, pour l’entreprise comme pour ses partenaires. En réunissant l’ensemble des API de l’entreprise en un seul point, il facilite la gestion des connexions et de l’exposition des données. Pour les développeurs, le portail donne accès à toute une gamme d’API, dont on suivra facilement la consommation tout au long de leur cycle de vie grâce à des tableaux de bord adaptés. Le portail API facilite la connexion et apporte des informations clés pour l’intégration, mais permet également aux développeurs de sélectionner leurs API en toute autonomie. Grâce au confort d’utilisation du portail, les développeurs et partenaires sont plus engagés et performants.

Le portail API fournit aux développeurs une palette de services disponibles et sécurisés : accès à un catalogue d’API, possibilité de les tester et de les consommer selon le besoin, mais aussi contact étroit avec d’autres développeurs et accès à de bonnes pratiques simplifient l’ensemble de la démarche. Les API s’apparentent alors à des produits, très simples à sélectionner et à déployer pour des développements sur mesure.

L’API Management, la pierre angulaire de la transformation numérique.

API Management et Portail API : positionnement et avantages

Le portail API fait lui-même partie d’une solution plus globale : l’API Management. Une plateforme qui permet d’administrer à la fois les diverses API utilisées, mais propose aussi un environnement complet pour les tests, le stockage d’éléments contractuels et le suivi des consommations.

L’API Management permet de maîtriser les API durant leur cycle de vie et offre une vue claire sur la consommation qui en est faite. La solution contribue à une expérience plus qualitative pour les partenaires de l’écosystème. Pour l’entreprise, l’API Management est gage de sécurité des données. Sécurisation du traitement des données, protection des environnements de test, contrôle constant du respect des SLA… la volumétrie des échanges va de pair avec un contrôle rigoureux de l’exposition.

L’API Management sert à la fois les besoins des partenaires et ceux de l’entreprise :

Avantages partenaires du Portail API

Partenaires

  • Information complète sur les API consommées et les statistiques, accès simplifié aux tokens
  • Environnements de test sécurisés
  • Grande disponibilité des environnements et services évolutifs
  • Possibilité d’exploiter une forte volumétrie de données
  • Espace d’autonomie et d’échange pour les développeurs, information complète pour un bon déploiement des API  
Avantages entreprise du Portail API

Entreprise

  • Monitoring global de toutes les API
  • Maîtrise de la consommation et de la santé technique des API
  • Facilité à créer à la souris des bouquets d’API sur mesure pour chaque partenaire
  • Ouverture des données simplifiée et rapide
  • Sécurisation des échanges, des traitements des données et des environnements de production

L’APIM répond ainsi aux problématiques de la majorité des organisations privées comme publiques. On citera à titre d’exemple les collectivités souhaitant ouvrir leurs données à des startups sources d’innovation, les distributeurs devant échanger en temps réel avec leur réseau de transporteurs, ou bien les industriels ayant besoin de traiter l’information de multiples objets connectés.

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

La complémentarité entre ESB et APIM

Souvent évoqué pour ouvrir son Système d’Information vers l’extérieur, l’ESB est en réalité complémentaire à l’APIM.

Les deux solutions se sont peu à peu imposées aux entreprises dans la recherche d’une stratégie orientée services, et remplissent des rôles distincts et complémentaires :

  • Le bus applicatif répond essentiellement à une nécessité d’industrialiser les échanges inter-applicatifs et permet d’orchestrer les services du système d’information.
  • L’API Management répond à la gouvernance des échanges à destination de l’écosystème de partenaires

Ainsi, alors que l’ESB urbanise les échanges en interne et rend les applications plus communicantes, l’API Management permet la supervision des échanges avec l’extérieur via les API.

Ces deux solutions travaillent donc ensemble à l’industrialisation des échanges et de leur orchestration. L’ESB fluidifie la communication inter-applicative, et donc l’efficience en interne. Ce socle solide se combine avec l’API Management, qui apporte scalabilité et sécurité aux échanges avec les partenaires. Le résultat est une architecture agile, évolutive et scalable qui apporte de la valeur à l’entreprise et à son écosystème !

Vous souhaitez échanger avec l’un de nos experts autour des offres ESB et API Management ?

Au plaisir d’échanger avec vous !

MDM vs PIM : différences des logiciels

Force est de constater aujourd’hui l’omniprésence des données dans toutes les stratégies d’entreprises et la nécessité de se doter de solutions de type MDM (Master Data Management) ou PIM (Product Information Management) pour en tirer pleinement profit. L’adage de « la bonne information à la bonne personne au bon moment » n’a jamais été aussi pertinent.

Dans un monde où la maîtrise de la donnée devient essentielle pour contribuer activement à la stratégie de développement alors que les circuits de décision raccourcissent en permanence, DSI et directions métiers doivent travailler de plus en plus étroitement pour fournir des solutions fiables et sécurisées de gestion de l’information.

En effet, quel que soit votre secteur d’activité, vos clients, partenaires et collaborateurs sont désormais hyper connectés et auront de plus en plus besoin d’échanger des données en temps réel.

Autant vous organiser tout de suite pour valoriser vos données et constituer des référentiels au service des usages métiers, comme par exemple pousser des promotions personnalisées à vos clients basés sur l’analyse de leurs historiques d’achat, optimiser les flux logistiques via l’analyse de tous les déplacements grâce à l’IoT, etc. Les applications sont quasiment sans limite et toutes au service de la performance de l’entreprise.

Mais pour cela, les DSI doivent d’abord unifier toutes les données au sein de référentiels partagés qui faciliteront leur manipulation et leur diffusion sécurisée au sein de tout l’écosystème interne et externe. Les solutions MDM (Master Data Management) et PIM (Product Information Management) semblent répondre aux besoins mais quelles sont leurs différences ? Ou leur complémentarité ? Pourquoi mettre en œuvre l’une de ces deux approches ?

L’urgence de stopper l’anarchie dans la gouvernance des données !

Alors qu’il ne se passe pas une journée sans que l’on nous parle de « BigData » ou de « Data-Driven Marketing », on aurait pu croire que la maîtrise des données serait déjà pleinement intégrée dans les schémas directeurs des DSI et ce, en synergie totale avec les besoins des directions métiers. Malgré tout, nous constatons tous les jours que la réalité est loin d’être parfaite et qu’il est urgent d’adopter une stratégie forte de gouvernance des données.

D’autant plus que les entreprises se heurtent régulièrement à une divergence des points de vue entre IT et métiers. La DSI approche la donnée sous l’angle de son stockage, de la gestion de sa disponibilité et de sa sécurité alors que chaque direction métier l’envisage de manière très individuelle sous l’angle des usages et de l’aide à la décision. Deux approches complémentaires qui doivent désormais converger rapidement :

L’objectif est double : protéger le patrimoine de données de l’entreprise et augmenter constamment sa valeur en termes d’usages métiers

Cette convergence est donc à la fois un chantier organisationnel et technique car la valeur de la donnée client ou celle liée au produit ne peut s’envisager que dans le respect des contraintes de la DSI et au service des objectifs de chaque direction métier.  Une telle démarche doit ainsi être mise en œuvre à travers une centralisation plus forte des données et une synchronisation sur tous les logiciels et supports en place dans l’entreprise. C’est précisément ce que proposent de résoudre les solutions MDM (Master Data Management) ou PIM (Product Information Management), alors voyons concrètement leurs différences…

Le MDM (Master Data Management) dédié aux données de référence

Mettre en œuvre un MDM (Master Data Management) est une démarche globale d’amélioration de la qualité des données à l’échelle de toute l’entreprise. En effet, un projet MDM se focalise sur la création d’un référentiel unique pour toutes les données stratégiques de l’entreprise : clients, fournisseurs, articles, nomenclatures, processus de fabrication, RH, etc. Il ne vise pas à répondre uniquement à certains besoins mais bien de poser les fondations d’un système de gestion homogène des données de référence et des référentiels de donnée. L’objectif est de s’assurer que chaque collaborateur dans l’entreprise aura bien la même vision d’une donnée à un instant T sans qu’il y ait des problématiques de réconciliation et quel que soit le nombre de logiciels différents utilisés dans tout le système d’information.

Techniquement, le MDM centralise et unifie les données dans un référentiel unique puis va gérer leur « propagation asynchrone » vers toutes les applications du système d’information via le Bus Applicatif ESB. Les règles de gouvernance des données étant bien définies, tout changement d’adresse d’un client (à son initiative sur un site e-commerce par exemple) sera ainsi répercuté quasiment en temps réel dans tous les autres logiciels, ERP, CRM, etc. Le MDM apporte ainsi une grande maîtrise de la donnée et garantit aux utilisateurs d’exploiter toujours une donnée fiable.

Le MDM répond donc à une stratégie d’unification globale des données tandis que le PIM sera davantage orienté sur une stratégie d’unification des données Produits comme nous allons le voir…

MDM versus PIM : frères ennemis ou Dream Team ?

Le PIM (Product Information Management) en vogue dans le Retail mais également l’industrie !

Une solution PIM (Product Information Management) permet en effet de centraliser dans un référentiel unique toutes les informations liées aux produits (caractéristiques techniques, descriptions, références, nomenclatures, photos, contenus médias, etc.) habituellement stockées dans différentes applications du système d’information. Lui aussi alimenté au travers de bus applicatifs ou directement via les applications si le système d’information n’est pas urbanisé, il simplifie et fiabilise les échanges de données lorsque l’on a plusieurs canaux de distribution parallèles comme dans le Retail. Les logiciels de Product Information Management sont également de plus en plus utilisés dans l’industrie agroalimentaire, pharmaceutique et globalement des biens de consommation pour qui la gestion de l’information produit est critique.

Basé sur les mêmes principes d’alimentation et de centralisation que le MDM, le PIM pourrait être, à première vue, considéré comme une sous-partie du MDM. L’intérêt majeur est de sécuriser les processus de commercialisation des produits : dès qu’un produit est référencé, les utilisations par le marketing, les ventes et la logistique ainsi que sa mise à disposition dans les bases tarifs des commerciaux, sur les sites e-commerce et/ou Market Places partenaires sont très rapides. C’est donc une application utilisée en premier lieu par les équipes marketing et produit ! Il est ainsi orienté avec un prisme métier plutôt qu’avec la vocation de mettre en place une gouvernance des données au niveau de l’entreprise. Il pourra apporter des fonctionnalités spécifiquement orientées en ce sens : indicateurs liés aux produits, fonctions orientées « achat »… que ne proposeront pas des Master Data Management.

La solution PIM (Product Information Management) est donc particulièrement adaptée aux enseignes du Retail et les entreprises orientées « produits CPG » dont la performance des stratégies omnicanal exige que les consommateurs, vendeurs et partenaires puissent facilement et rapidement accéder à la bonne information sur les produits.

Le PIM pourrait ainsi être considéré comme une première étape dédiée aux produits par rapport au MDM afin de gérer la contextualisation des Master Data sur les différents canaux de communication et de vente et ainsi garantir la bonne exécution des stratégies Marketing. Mais très vite, assister votre stratégie omnicanal et garantir une expérience client unique impliquera de mettre en place une gouvernance des données transversale. Pour cela, on ne pourra pas se limiter aux seules données des produits, il faudra déployer un référentiel unique partagé par l’ensemble des applications qui composent votre écosystème et unifier toutes les données liées au parcours client dans un MDM.

Le PIM n’est donc pas une sous-partie d’un MDM et les deux approches sont souvent complémentaires. Dans le cas de référentiels simples avec des données stables, déjà qualifiées, qui évoluent peu et ne nécessitant pas de synchronisation avec d’autres applications, un PIM peut suffire à gérer et piloter les données produits (et elles seules !). Si les référentiels sont plus complexes avec une évolution dynamiques des données, des échanges inter-applicatifs et des processus métiers transversaux alors un Master Data Management s’avère nécessaire pour structurer la démarche.

Vous souhaitez échanger autour de votre stratégie de gouvernance de la donnée ? Prenez rendez-vous !

Au plaisir de discuter avec vous !

Quelles typologies de data hub MDM ?

Loin d’être une opération anodine pour les entreprises, l’implémentation d’un référentiel unique de données pose de forts enjeux organisationnels et techniques.

Parmi les plus courants, on citera :

  • La difficulté à définir un modèle unique pour les données métier, qui sont par nature dépendantes des pratiques de chaque service
  • Le temps nécessaire à la bonne cartographie des données et à la définition de ce modèle central, avec ses attributs et sa structure
  • L’encadrement obligatoire du MDM grâce une gouvernance des données adaptée, laquelle nécessite elle aussi du temps et des efforts
  • L’impact non négligeable du MDM sur l’organisation interne, qui doit revoir son utilisation de la donnée

En raison de la variété des organisations, le MDM (Master Data Management) prend diverses formes : plusieurs modèles existent, qui permettent selon leur architecture de répondre à des enjeux réglementaires, à un fort besoin d’autonomie de sites locaux, ou au contraire permettent de centraliser des informations clés pour l’activité.

Les changements liés à l’intégration d’un MDM peuvent ainsi se faire en harmonie avec le fonctionnement des équipes et les contraintes techniques et réglementaires propres à chaque secteur.

Au cœur des architectures MDM : le data hub, qui agrège les données et facilite la consultation du référentiel unique. On distingue quatre modèles principaux de hub MDM :

Le data hub Registry

Ce modèle relativement simple à implémenter permet à la donnée de rester la propriété des systèmes source. Le hub est en charge du dédoublonnage et du nettoyage de la donnée : des modifications qui seront ensuite croisées au sein du hub afin de définir une version unique de la vérité. Le croisement constant des sources permet d’obtenir une donnée nettoyée, indexée grâce à des identifiants uniques. Cette donnée n’est pas renvoyée aux systèmes sources et reste disponible en lecture seule.

Les avantages du modèle Registry

  • Etablir facilement un modèle unique à partir de multiples systèmes sources
  • Ecarter tout risque de suppression de données dans les systèmes sources : cette précaution permet d’éviter tout problème de conformité ou réglementation
  • Opter pour un modèle non intrusif, rapide à mettre en œuvre

Les inconvénients du modèle Registry

  • Ne permet pas d’obtenir un set de données consolidées
  • Un modèle relativement peu performant lorsque des volumes importants de données sont concernés

Le data hub Consolidation

Avec ce modèle de hub MDM, la donnée est copiée depuis les systèmes sources puis consolidée dans un golden record au sein du hub. Elle peut ensuite être redistribuée aux applications ou directement consommée par les métiers.

Le golden record permet de s’appuyer sur des données de référence fiables, qui facilitent les tâches de reporting. Contrairement au modèle de hub Registry, le modèle Consolidation renvoie la donnée aux systèmes sources pour enrichir et actualiser la data dont ceux-ci disposent. Les applications et processus s’ouvrent ainsi à l’amélioration continue de leurs données.

Les avantages du modèle Consolidation

  • Une réelle consolidation des données dans le hub, qui permet de bâtir un référentiel complet
  • Une solution à la fois économique et fiable pour toutes les formes de reporting et d’analyse
  • Un modèle moins dépendant des systèmes sources que le modèle Registry, la donnée étant centralisée dans le hub

Les inconvénients du modèle Consolidation

  • Un délai parfois long entre les consolidations pouvant mener à une obsolescence de la donnée stockée dans le hub

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Le data hub Coexistence

Evolution directe du modèle précédent, le modèle Coexistence permet lui aussi de constituer un golden record grâce à la consolidation, puis de redistribuer les données nettoyées aux applications, où elles sont intégrées.

Si les systèmes sources gardent ainsi la main sur leur donnée, l’actualisation constante de leur data contraint généralement les métiers à modifier leurs méthodes. Couramment utilisé comme architecture de transition lors du passage d’un hub MDM Registry à un modèle Centralisé, ce modèle de data hub instaure une donnée plus unique dans l’ensemble du parc applicatif.

Les avantages du modèle Coexistence

  • Une architecture qui garantit plus de fiabilité et d’unicité de la donnée, à la fois dans le hub MDM mais aussi dans les systèmes sources
  • Un accès rapide à la donnée qui rend les processus plus performants et simplifie le reporting : définis avec précision, les attributs sont immédiatement disponibles dans les rapports

Les inconvénients du modèle Coexistence

  • Un modèle plus intrusif que les approches précédentes
  • Une intégration plus contraignant sur le plan technique et économique : les modèles de données doivent être bien réfléchis et leur structure clarifiée avant utilisation du MDM

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Le data hub Transactionnel ou Centralisé

Ce modèle place quant à lui la donnée de référence sous l’autorité du hub MDM. Le hub devient alors le fournisseur et le référent unique de la donnée pour tous les systèmes sources. Capable d’enrichir, de dédoublonner et de croiser la donnée en permanence, il constitue une data actuelle, puis la renvoie aux systèmes.

Les avantages du modèle Centralisé

  • Une donnée de référence réellement unique et fiable à tout moment
  • Une garantie de sécurité et de conformité du traitement de la donnée
  • Des systèmes et processus qui bénéficient directement de l’enrichissement de la donnée

Les inconvénients du modèle Centralisé

  • Une démarche très intrusive pour les processus en place, lesquels doivent être repensés en conséquence
  • Une intégration complexe, plus longue et coûteuse et plus longue

L’expertise Blueway en matière de MDM

Face à la complexité du choix d’un data hub adapté, Blueway propose un ensemble de solutions complémentaires qui facilite la transformation de votre architecture et accompagne votre stratégie data, selon votre propre contexte. La combinaison d’une gestion des flux efficiente via un bus applicatif (ESB), d’une modélisation intelligente des processus avec le BPM et d’un MDM capable d’unifier les données apporte une solution globale et cohérente enjeux métiers.

L’expertise de Blueway et notre approche exhaustive des dimensions de la donnée vous permettent de modéliser, mettre en place et superviser vos flux de données, vos processus et vos référentiels, sans limitation technique.

Vous souhaitez échanger autour des différents modèles de hub MDM ?
Échangez avec nos experts !

Au plaisir d’échanger avec vous !

Interopérabilité SI : témoignage autour du projet de Paredes

PAREDES a révolutionné le monde de l’hygiène en France en créant le marché de l’usage unique. Depuis plus de 7 décennies, ce groupe de plus de 650 collaborateurs, fabrique et distribue des produits et des solutions innovantes en matière d’hygiène et d’équipements de protections individuelles pour les professionnels. Leur approche, fondée sur leurs valeurs, est celle d’une entreprise résolument orientée Client.

La gestion des flux de données au sein du système d’information est une problématique présente dans tousles secteurs d’activité, renforcée par la taille de l’entreprise, la diversité des applications métiers ainsi que les besoins de digitalisation et d’intégration avec l’écosystème.

Dans certaines organisations, l’orchestration des flux devient une brique clé de l’ambition de transformation. C’est le cas de PAREDES qui, depuis 2018, s’est lancé les défis d’être reconnu leader sur son marché, de devenir un multi-spécialiste sur des secteurs comme la santé, les collectivités ou l’industrie, et de proposer des services de bout en bout (SAV, équipement, maintenance…).

Dans cette interview, Emmanuel OBERTHUR, DSI de PAREDES revient sur cette transformation, l’implémentation des premières briques structurantes du SI et les enjeux qu’elle soulève en termes de gestion des flux.

Quelles évolutions de l’entreprise ont impacté la direction des systèmes d’information ces dernières années ?

Avant tout, pour poser le contexte, nous ne sommes qu’au début de notre trajectoire de transformation ! Elle va se poursuivre dans les années à venir. La DSI est au cœur de la transformation de PAREDES : notre objectif est de remettre PAREDES en dynamique et se donner la capacité d’évoluer en permanence.

Ce programme de transformation repose sur plusieurs dimensions, avec en particulier le fait de recentrer le business vers des secteurs de marché où PAREDES a une vraie valeur à apporter aux clients. C’est le cas par exemple des secteurs de la Santé, des Collectivités, des Entreprises de Propreté et de l’Industrie.

La deuxième dimension essentielle est d’accélérer sur le digital. Auparavant, 90% des processus de PAREDES reposaient sur l’ERP. Le programme de transformation vise à ouvrir en grand des solutions digitales pour nos clients : portail clients, plateforme e-commerce… C’est-à-dire des solutions qui vont projeter PAREDES vers l’extérieur et qui doivent aussi communiquer entre elles !

Si on remonte un peu dans le temps, cela fait aussi écho à la place grandissante des métiers. De plus en plus, ils nous faisaient remarquer que « l’ERP c’est bien, mais sur tel ou tel bout de process ce n’était pas pérenne » ou qu’ « il fallait raccorder le SI avec telle nouvelle application best of breed, ou développée en interne. » et leurs besoins s’accéléraient.

Notre objectif : partager l’information de façon fluide, efficiente, orchestrée et supervisée, d’abord en interne puis avec l’extérieur.

Quels enjeux vous ont convaincus qu’une plateforme ESB était indispensable pour soutenir cette transformation ?

L’interopérabilité au sein des briques du système d’information de Paredes est devenue un vrai enjeu quand on a commencé à hybrider le SI et à sortir des données de l’ERP pour les faire circuler plus largement. Tant que tout tournait dans l’ERP, nous étions sur des schémas très traditionnels de demi-interfaces. L’orchestration et la supervision étaient alors empiriques et manuelles.

Historiquement, il y avait déjà une somme de projets (Power BI, EDI…) qui s’était traduite par la mise en place d’échanges de données mono ou multi-sens, sans qu’ils soient posés dans un plan de travail permettant de superviser les flux. C’est l’ERP qui fédérait les flux : l’application métier déposait son fichier dans un dossier que l’ERP scannait avec une fréquence définie. Si le timing n’était pas le bon, les échanges pouvaient se télescoper !

Entre fin 2018 et 2021, beaucoup de choses ont changé. Nous avons accumulé un certain nombre de projets et les formats d’échange se diversifiaient de plus en plus. Plus ils se développaient, plus nous savions que nous allions être confrontés à des mécanismes d’interopérabilité avec des enjeux de fréquence et de qualité. La technique d’autrefois n’était plus suffisante ! Comment également répondre à notre volonté d’échanger avec le reste du monde ? D’extraire, mutualiser la donnée et la distribuer vers plusieurs applications ?

Ces dernières années, nous avons doublé quasiment tous les ans le nombre de flux. Or, orchestrer les flux n’est plus une option à un certain niveau de volumétrie et de fréquence !

Le début du projet e-commerce fut la première des briques majeures du programme de transformation qui a mis en lumière le besoin très fort d’interopérabilité.  De nombreux autres projets étaient aussi concernés comme le CRM (Microsoft Dynamics) qui devait communiquer via API. Impossible à faire au travers de l’ERP dans sa version actuelle !

A la fin de l’été 2020, nous étions ainsi convaincus de la nécessité de mettre en place une plateforme d’échange nous permettant de collecter l’information et de la redistribuer, quelle que soit la technologie utilisée. Et cela, d’autant plus que nous avions fait précédemment quelques essais avec Azure Data Factory. Cette approche était technologiquement très intéressante, mais loin d’être adaptée à notre contexte dans la pratique. Nous ne souhaitions pas multiplier les éditeurs et nous sommes « pro Microsoft », mais quand on ne trouve pas de solution adéquate, il faut ouvrir !

C’est pour cela que nous souhaitions mettre en œuvre une mécanique avec un entrepôt de données alimenté par l’ESB ou l’ETL. Notre crédo était de développer des échanges plus fluides et mutualisés.

Comment accompagner l’ambition de transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

Quelles ont été les grandes étapes de la sélection et de la mise en place de la plateforme ESB ?

Quand est arrivé le projet CRM avec des échanges de nature très diverse, nous savions que l’ETL ne répondrait pas au besoin. Au sein d’Azure Data Factory, tous les services sont parcellaires et ne sont pas rassemblés dans un outillage cohérent de notre point de vue. Le budget était également un frein.

Les premiers travaux autour de notre e-commerce notamment, et SSIS (SQL Server Integration Services) nous ont permis de rencontrer les équipes de Data-Major. Nous avons commencé à collaborer sur d’autres dossiers, puis nous avons réfléchi ensemble à ce sujet de gestion des flux inter-applicatifs et nous nous sommes retrouvés autour de plusieurs convictions.

Fin de l’été 2020, la décision était prise. Le temps d’écrire l’expression de besoin, de s’accorder avec l’intégrateur sur la logique du « Why not », le projet CRM a démarré et les premiers flux ont été conçus. Nous avons ensuite installé la plateforme en janvier 2021, formé en février, et lancé le premier lot sur la CRM avec les équipes de Data-Major pour une rentrée en production en Q4 2021.

Je voulais une approche simple, moderne, économiquement accessible, qui aille vite, dans la logique d’un « Why not ? » et avec un partenaire intégrateur prêt à s’investir dans la démarche. Je souhaitais également pouvoir souscrire en On-Premise.

Au niveau du choix de la plateforme ESB, nous avions étudié plusieurs solutions. La majorité d’entre elles était très technologique. Face à cela, l’approche low-code de Blueway nous a paru extrêmement intéressante, tout comme le fait d’ajouter par la suite des modules pour évoluer vers des besoins complémentaires, sans contraintes : MDM, BPM… Cette ouverture, c’est un élément de réflexion que nous gardons en tête pour une future démarche MDM ! Cela fait partie des critères qui ont renforcé nos convictions. Lorsque nous lancerons un chantier MDM, on se donne ainsi la possibilité d’avoir un encapsulage natif avec l’ESB. Et cela compte !

Tous les échanges depuis les nouvelles applications seront pilotés au travers de la plateforme ESB. L’autre grand chantier en parallèle est de migrer les interfaces historiques. Le premier lot regroupera les interfaces réalisées avec SSIS pour l’e-commerce, car il y a une forte mutualisation avec la CRM en termes de nature et d’objets. Notre démarche reste pragmatique : nous avions par exemple démarré les échanges de flux entre l’e-commerce et l’ERP avec SSIS car nous savions que cela serait fonctionnel en attendant le chantier ESB. C’était une première expérience de changement de technologie.

La priorisation du plan de migration des interfaces existantes dépendra ensuite des enjeux technologiques et techniques. Pour certaines applications sous l’ancien mode d’interopérabilité, les « sachants » qui ont développé les interfaces ne sont plus présents. Le risque pour l’exploitation et la criticité seront ainsi des critères de priorisation.

Quels sont les prochains projets et comment la plateforme ESB accompagnera ces évolutions ?

Nous sommes encore en train d’élargir le périmètre applicatif de PAREDES et cela ne va pas s’arrêter. Demain, le groupe grandira encore. C’est dans notre stratégie !

Nous intégrerons de nouveaux logiciels ; nous mettrons à disposition de nos clients des API afin qu’ils récupèrent et transposent automatiquement de l’information dans leurs applications, ou qu’ils opèrent certains processus métiers. Une de nos ambitions est de résoudre un certain nombre des problématiques clients tout en intégrant cette démarche au sein de l’offre de services de Paredes. Ces applications très orientées métiers vont avoir besoin d’interpeller la plateforme, d’envoyer de l’information à une autre, de communiquer avec les SI des clients… Faire communiquer les SI entre eux, cela fait partie des services que vous visons à développer !

La plateforme ESB sera un accélérateur pour tous ces nouveaux projets. Nous l’avons vécu récemment dans le cadre de notre projet de refonte du SI RH. Cela a facilité le travail d’intégration de pouvoir directement mettre en place une approche moderne d’échanges via l’ESB : récupérer les données, les mettre en forme, les transporter dans le SI…

De plus, si cette plateforme est initialement utilisée par le SI de la partie française, la filiale en Italie dispose aussi d’un SI composite. On est une entreprise qui vit et la collaboration ne fera que se renforcer entre la France et l’Italie en termes de savoir ou d’applications communes. La croissance externe fait également partie de notre stratégie : il faut être prêt à assembler des SI ou les faire communiquer.

Le MDM (Master Data Management) sera aussi une suite logique dans notre structuration du SI. Et pour finir, comme nous allons accélérer sur le digital, il y aura de plus en plus de services, et donc de plus en plus d’événements, de temps réel… C’est également pour traiter de l’événementiel que nous avions besoin d’un ESB !

Ce ne sont plus deux personnes ne parlant pas la même langue qui essaient de communiquer ! Chacun s’exprime et il y a un interprète entre les deux.

Avec vos retours d’expérience, quels conseils partageriez-vous à un DSI qui entamerait un projet similaire au vôtre ?

Mon premier conseil, c’est qu’il ne faut pas se précipiter. Les enjeux technologiques sont forts : de mon point de vue, il est indispensable de prendre le temps d’être au clair sur ses besoins, les factualiser, et ensuite choisir une solution vraiment adaptée.

D’autres questions sont à se poser : va-t-on se retrouver avec une solution que des équipes métiers éclairées pourront utiliser ? Est-elle réservée à des profils purement techniques ? L’outil doit être puissant dans la proposition et simple dans la mise en œuvre.

Je préconise aussi d’être pragmatique sur les chantiers à mener : commencer par les choses simples et monter au fur et à mesure en complexité afin de gagner en maîtrise.

Il faut également anticiper les besoins futurs. La solution doit être évolutive. Par exemple, nous sommes de plus en plus interpellés par nos clients autour de l’accès à l’information. Nous ne voulions pas que le portail clients, qui est leur point d’entrée, soit d’une complexité folle. Ce portail devait ainsi s’appuyer sur une logique d’API et de web services. L’ESB devait prendre en compte dès le départ ce contexte afin de participer à délivrer des informations à nos clients de manière très évènementielle.

Ce n’est pas ETL ou ESB mais ETL et ESB ! Il ne faut pas s’imaginer que disposer d’un ESB implique de jeter son ETL. Pour de très grosses volumétries, l’ETL reste plus performant, au contraire l’ESB répondra plus efficacement pour distribuer de l’information sur sollicitation, à tout moment, si une application a enclenché un service. Ce sont deux philosophies différentes.

Au-delà de la solution, penser à comment l’écosystème va pouvoir vous accompagner est également essentiel ! Choisir les bons partenaires est un des premiers gages de réussite. Sur ces outils et ces technologies, le partenaire intégrateur est aussi important que le partenaire éditeur. Nous sommes partis sur un « Why Not », car nous avions confiance dans notre partenaire Data-Major.

Pour prendre comme exemple notre retour d’expérience, nous sommes arrivés au choix de Blueway avec une prise de risque partagée entre Data-Major et nous. Nous étions de part et d’autre convaincus de la philosophie de l’outil. Data-Major s’est investi à nos côtés pour monter en compétences sur la technologie Blueway. Cela faisait partie du deal et cela a rendu les choses beaucoup plus faciles ! Nous n’avions en effet pas suffisamment de temps devant nous pour intégrer les « sachants » dans nos équipes. Cette approche et cette répartition ont permis d’aller vite tout en limitant les risques.

Vis-à-vis de Blueway, l’éditeur, un point que j’apprécie particulièrement et qui remonte en COPIL, c’est que Blueway ne s’est pas contenté de vendre sa licence. Si Data-Major partage les risques du projet avec nous, Blueway s’est aussi engagé à nos côtés pour nous accompagner tous les deux. Dès que l’équipe de Data-Major a eu besoin d’affiner ses connaissances, de monter en expertise, d’aller chercher un expert, Blueway a toujours répondu présent.

Nous sommes tous les trois des entreprises à taille humaine. Le trio fonctionne bien, et rechercher cette synergie est pour moi le conseil le plus important !

Vous souhaitez échanger avec l’un de nos experts autour de vos enjeux de transformation du Système d’Information  ?

Le RCU et son rôle central
pour la qualité des données client

Offrir une véritable continuité dans le parcours client est désormais un impératif : la qualité de l’expérience est en effet un puissant élément différenciant. Et pour les clients, employer des canaux différents pour la prise d’information, l’achat et le retrait d’un produit est maintenant commun ! Les usages ont fortement évolué et les points de contacts se sont multipliés.

Pour les entreprises, cette tendance renforce encore plus l’importance d’adopter une démarche customer-centric. En initiant le contact au meilleur moment, il est possible de toucher le client au plus juste. Mais pour savoir où et quand solliciter ses utilisateurs ou acheteurs potentiels, il est indispensable d’avoir une connaissance complète de leurs usages : la donnée client doit être exhaustive et accessible pour bien guider la stratégie commerciale des marques.

Cet enjeu est d’autant plus grand que la donnée client est aujourd’hui dispersée dans de nombreux outils métiers  (CRM, WMS, sites marchands…). En l’absence d’un système de centralisation, collecter et exploiter pleinement cette donnée est aussi essentiel que complexe.

Si le CRM est rapidement devenu indispensable pour comprendre et piloter de manière opérationnelle les échanges avec les clients, le Référentiel Client Unifié (RCU) concentre quant à lui en un point central l’ensemble de l’information liée aux clients.

Ce référentiel doit permettre :

  • d’automatiser la collecte et le tri intelligent des données client pour soutenir le marketing
  • de définir une version unique de la vérité « client » distribuable à tout le SI
  • de maîtriser la donnée et sa conformité malgré les évolutions logicielles et réglementaires

Quels bénéfices attendre
de l’utilisation d’un RCU ?

Le RCU répond en premier lieu au besoin d’unifier, de structurer et de mettre en qualité les données provenant de sources multiples. Pour cela, il effectue des tâches telles que :

Restructuration-des-donnees

Restructuration

Les données sont réorganisées pour disposer d’une vision à 360° du parcours client, en particulier à des fins marketing et commerciales.

Normalisation des données

Normalisation

La structure des données est adaptée aux normes des outils métiers afin d’exploiter celles-ci facilement.

Rapprochement et enrichissement des données

Redressement/Enrichissement

Les données relatives à chaque client sont rapprochées pour créer un ensemble de données complet, cohérent et fiable.

Déduplication et unification de la vue client

Déduplication et unification

La suppression des doublons générés par les différents canaux permet d’unifier la vue sur chaque client et son parcours.

Conformité, accès et droits

Conformité au RGPD / Accès et droits

Le RCU est un atout pour respecter le RGPD en facilitant l’archivage, la purge des données lorsque nécessaire, la gestion du droit à l’oubli ou du consentement… Le contrôle des accès garantit un traitement adéquat et sécurisé de la donnée par chaque utilisateur.

Mais le Référentiel Client Unifié doit aussi permettre aux métiers de tirer plus de valeur des données grâce à :

Segmentation et typologies client

Segmentation et typologies client

Celles-ci permettent d’améliorer sa connaissance client et de prioriser efficacement les actions.

Scénarii de campagne personnalisés

Support pour les scénarii de campagne

Grâce à la capacité de scoring du RCU, des scénarios très personnalisés peuvent être élaborés en lien avec le CRM.

Data Visualisation et parcours client 360

Data Visualisation

Agrégées dans une vue à 360° du parcours client et consolidées sous la forme d’indicateurs visuels, les données sont mieux exploitées et comprises.
Les tableaux de bord, audits et analyses stratégiques de l’outil s’adaptent aux besoins des métiers.

Le RCU a aussi un rôle fort à jouer sur la gouvernance des données et la circulation de celles-ci dans le SI. Les flux peuvent alors alimenter les processus métiers au bon moment. Mieux agrégée dans des reportings et scénarii,  la donnée client apporte un réel soutien à la prise de décision.
Enfin, le RCU sécurise la donnée, l’accès à celle-ci et permet de rester en conformité avec le RGPD.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Comment mettre en place
un référentiel client unique adapté ?

La mise en place d’un RCU ne s’improvise pas : la technologie choisie pour ce hub de données doit être cohérente avec l’organisation interne.

L’implémentation du Référentiel Client Unifié suit des étapes précises qui garantiront par la suite la qualité des données et des flux :

  1. Définition des points de collecte de la donnée (notamment via le plan de collecte, qui permet d’améliorer les techniques et canaux de collecte)
    1. Cartographie du SI
    1. Définition des cas d’usage du RCU
    1. Sélection de l’outil adéquat sur la base d’un cahier des charges et de l’évaluation en profondeur d’un petit nombre d’éditeurs
    1. Déploiement de l’outil, lequel nécessite à la fois la définition de règles de pilotage rigoureuses,  le paramétrage et une phase de test

S’il est possible de choisir un outil intégré au CDP ou au CRM, le déploiement d’une solution indépendante présente des avantages supplémentaires.
La solution de Master Data Management permet en effet de faire de son RCU un outil parfaitement transversal : on disposera ainsi d’une version unique de la vérité, qui alimentera tous les processus avec la même qualité de données, indépendamment des applications métiers.

Interview d’expert :
Deux retours d’expérience complémentaires sur la mise en place de solutions MDM (Master Data Management)

Votre plateforme client unifiée avec Blueway

Le Master Data Management de Blueway est une solution clé pour la centralisation des données du RCU. Elle unifie la vue des différents métiers sur les données et sécurise toutes les étapes de modification et de validation de ces données. De plus, le MDM introduit une forte dimension collaborative et garantit que les intervenants travaillent tous sur des données uniques et exactes.

Au-delà de la seule action du MDM, la communication entre le RCU et les outils métiers doit être pilotée. En associant le MDM aux solutions d’ESB et de BPM, la plateforme client unique de Blueway fait également vivre et circuler la donnée dans l’ensemble du SI :

  • Le bus applicatif ESB joue un rôle de coordinateur en améliorant la communication au sein du SI. L’ESB permet une meilleure supervision des flux entre applications et accélère les transferts de données depuis et vers le RCU.
  • Enfin, le BPM joue un rôle complémentaire essentiel pour tous les intervenants qui utilisent la donnée client en soutenant la mise en place des processus, de portails et d’écrans métiers.

Ces trois briques applicatives permettent ainsi à la plateforme de ne pas se limiter à l’unification de la donnée, et d’adopter une vue transversale qui englobe également l’implication des métiers et l’architecture du SI, et ce tout au long du cycle de vie de la donnée client.

Vous souhaitez échanger autour de la mise en place de RCU ?

Au plaisir d’échanger avec vous !

Choisir d’implémenter un portail fournisseur 

Le référencement produit :
un enjeu de taille pour les retailers

Face à la multiplication des gammes de produits, le référencement est devenu le point névralgique de la communication entre l’entreprise et ses fournisseurs.

Mais l’évolution rapide des produits n’est pas la seule raison rendant essentiel le processus de référencement produit :

  • La diversité des normes et formats utilisés par les fournisseurs complique le recensement et l’harmonisation des données
  • Les arrivées et départs fréquents de fournisseurs ne sont pas toujours traités en temps réel et ralentissent le référencement
  • L’exigence des clients finaux et des marchés en matière de qualité et d’information produit impose une saisie exhaustive et sans erreur, mais également une capacité à exploiter et valoriser les données
  • Les données produits sont bien souvent dispersées au sein du Système d’information de l’entreprise

Les données produit sont extrêmement variées. Achats (prix d’achat brut, remises, garantie…), logistique (pays d’origine, dimensions, nombre de produits / container…), caractéristiques techniques (certification, délai de péremption, sensibilité du produit…) : ce sont des milliers d’attributs qu’il faut saisir et mettre à jour en fonction des entrées et évolutions liées aux fournisseurs.

La difficulté est d’autant plus grande lorsque le référencement n’est pas effectué par un outil structuré (envoi par e-mail, fichiers Excel…). Le référencement annuel des gammes de produits nécessite alors des saisies et corrections multiples chronophages, sources d’erreurs et de pertes d’informations.

Du bon référencement des fournisseurs et des produits dépendent la fluidité des échanges et l’efficacité en interne. En bout de chaîne, c’est l’expérience client qui est impactée : la qualité des données produits et la capacité à les exploiter doivent donc être optimales.

Comment CMP Paris a urbanisé son système d’information ?

Le portail fournisseurs, une des clés
pour maîtriser l’information produit

Disposer d’un portail fournisseurs, c’est mettre en place un point de contact central et un cadre commun à l’information produit fournie par les partenaires. L’outil facilite à la fois la saisie côté fournisseur et l’utilisation des données côté acheteur :

Fournisseur

  • Des attributs, un format et une nomenclature structurés : familles et sous-familles, articles, attributs
  • Un pré-référencement, référencement ou déréférencement des fournisseurs au bon moment : les échanges sont mieux maîtrisés et les fournisseurs peuvent participer aux appels d’offres.
  • La mise à disposition de statistiques pour améliorer la performance et anticiper les besoins

Acheteur

  • Des données disponibles immédiatement au bon format et transmissibles aux outils métiers (ERP, référentiel articles…)
  • L’intégration du portail au SI pour des flux maîtrisés et automatisés
  • Des données saisies directement par le fournisseur, et donc un gain de temps, un format unifié et moins d’erreurs
  • La sécurisation des accès à l’outil pour les fournisseurs et acheteurs

Cet enjeu de saisie des données par les fournisseurs est le socle du référencement produit. Mais l’utilité du portail fournisseurs doit selon nous aller au-delà de la seule fonction d’externalisation normalisée de la saisie. Pour améliorer durablement la qualité et l’exploitabilité des données, le portail fournisseur doit soutenir :

La circulation des données dans le SI

La mise à disposition des données dans l’outil et leur diffusion à l’ensemble du SI facilite la tâche des métiers.

L’information qui circule est disponible au bon format directement dans l’outil. Les informations peuvent être transmises sans délai à l’ERP comme au référentiel articles. Le format d’entrée normalisé facilite ainsi le retraitement d’une donnée souvent complexe.

L’automatisation
des workflows

L’intégration de workflows au sein du portail accélère les échanges : pré-référencement, appels d’offres, déréférencement peuvent ainsi être automatisés (contrôle des données, alertes par mail pour compléter des informations manquantes, évolution automatique du statut des fournisseurs retenus en appel d’offre…).

La supervision de la relation avec les fournisseurs

Avec le portail, les fournisseurs disposent d’un espace dédié, avec une connexion sécurisée, qui peut également proposer des statistiques, des services au travers d’API et à être une source d’information personnalisée. Ces services fournis par l’outil favorisent l’amélioration continue et renforcent la relation et la collaboration.

MDM versus PIM : frères ennemis ou Dream Team ?

Une vision complète de la relation fournisseurs avec Blueway

Les dimensions BPM, MDM et ESB développées par Blueway se combinent afin de répondre à l’ensemble de ces enjeux et dépasser le périmètre du simple portail fournisseurs. Nous apportons ainsi une solution complète à la relation fournisseurs, capable de proposer un portail fournisseurs ergonomique et structurant, de distribuer l’information produit à l’ensemble du SI, de mettre en place un référentiel articles unique, aussi bien que de piloter les échanges au travers de processus :

BPM

La digitalisation des processus permet de modéliser des workflows sur mesure et d’instaurer des procédures de référencement industrialisées : aucune étape n’est oubliée et les informations nécessaires au référencement sont complètes et à fiables.

MDM

Le recueil des données dans un référentiel unique facilite leur enrichissement et leur redistribution. Le MDM alimente par exemple le PIM et le DAM, offrant une gestion complète des données et médias et leur diffusion aux métiers.

ESB

Le bus applicatif garantit la cohésion nécessaire entre les outils internes et le portail fournisseur : en simplifiant et orchestrant les échanges inter-applicatifs, la donnée produit est disponible et accessible à tout moment par les métiers.

La combinaison de ces trois dimensions offre une vision complète de la relation fournisseurs, qui ne s’arrête pas au seul référencement : la qualité, la sécurité et la transmission efficace de la donnée sont aussi des enjeux centraux, complémentaires au portail fournisseurs.

Le résultat est une collaboration fluide avec les fournisseurs, et donc une information produit unifiée, facile à diffuser à travers le SI, qui améliorera à la fois la confiance entre acheteurs et fournisseurs et la bonne exploitation des informations à destination des utilisateurs finaux.

Vous souhaitez échanger avec l’un de nos experts autour de la mise en place d’un portail fournisseurs  ?

Data quality

La data quality fait partie des enjeux majeurs pour les organisations, aussi bien sur des dimensions décisionnelles, financières ou de performance. En effet, des données de mauvaise qualité peuvent coûter cher ; une étude menée par MIT Sloan indique que la négligence sur la qualité des données peut coûter de 15 à 25 % du chiffre d’affaires.

Ces pertes peuvent se chiffrer en opportunités manquées en lien avec de mauvaises décisions ou un déficit d’image mais également en sanctions légales et en temps passé pour traquer, nettoyer et corriger les données erronées.

A l’inverse, des données de qualité permettent aux entreprises d’améliorer leurs performances opérationnelles, de satisfaire la clientèle et d’être plus compétitives en réorientant rapidement leur stratégie d’entreprise.

Interview d’expert :
Deux retours d’expérience complémentaires sur la mise en place de solutions MDM (Master Data Management)

Quels sont les critères
de qualité d’une donnée ?

Selon  PWC, Micropole, EBG, « la qualité des données désigne l’aptitude de l’ensemble des caractéristiques intrinsèques des données (fraîcheur, disponibilité, cohérence fonctionnelle et/ou technique, traçabilité, sécurisation, exhaustivité) à satisfaire des exigences internes (pilotage, prise de décision…) et des exigences externes (réglementations,…) à l’organisation ».

Une donnée ne possède pas une qualité intrinsèque. Sa qualité ne peut être évaluée qu’à partir du moment où l’on sait ce que l’on veut en faire : Quel est l’objectif final ? Quel sera son traitement ? Quelle signification sémantique donne-ton à l’information ? Quelles sont les attentes en termes de qualité et pourquoi ? Autrement dit, la qualité se définit en fonction de l’usage attendu par ses utilisateurs.

Cela suppose d’avoir une connaissance à la fois globale et fine des processus métiers qui traversent l’ensemble de l’organisation et des standards en vigueur pour permettre l’échange de données en interne et en externe.

Le RGPD pose des limites bien précises aux traitements des données personnelles, sur tout le cycle de vie de la donnée. Une donnée stockée ou utilisée hors cadre réglementaire ne pourra donc pas être considérée comme une donnée de qualité bien qu’elle puisse apporter de l’efficience et de la valeur à l’organisation.

A partir de ces points de considération, la qualité des données peut être jaugée à l’aune de différents indicateurs : son profil, son exactitude, sa complétude, sa conformité, son intégrité, sa consistance, sa disponibilité, son applicabilité, son intelligibilité, son intégration, sa flexibilité, sa comparabilité, sa cohérence etc. Les critères sont on ne peut plus variés ! Rentrent en jeu également des critères de services comme la compréhensibilité, l’accessibilité ou la fraicheur de la donnée.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Pourquoi faut-il mettre en place un Data Quality Management ?

La démarche data quality ne se limite pas à charger des données correctes dans les systèmes d’information ; elle consiste aussi à se débarrasser des données erronées, corrompues ou dupliquées ainsi qu’à garantir une description précise des données pour renforcer leur exploitabilité (dictionnaire de données…).

Si les erreurs peuvent être techniques, elles sont le plus souvent humaines et organisationnelles et surviennent à différentes étapes du cycle de vie de la donnée et à différents endroits du SI :

  • Lors de la collecte par une mauvaise saisie intentionnelle ou non intentionnelle
  • Lors du partage par la création de plusieurs versions d’une donnée
  • Lors de l’export par des règles mal définies en amont ou un problème de compatibilité
  • Lors de la maintenance par un mauvais encodage

Les conséquences en termes de « mauvaise qualité » des données sont par exemple des données inexactes, obsolètes, non-conformes… ou tout simplement dormantes. Une donnée peut ne pas être erronée et pourtant de mauvaise qualité si elle n’est plus utilisée et n’apporte plus de valeur.

La gestion de la qualité des données ou Data Quality Management (DQM) est ainsi la capacité à fournir des données fiables répondant aux besoins métiers et techniques des utilisateurs. Il s’agit donc de transformer des données de qualité en renseignements utiles.

La gestion des données dans une démarche d’amélioration continue de la qualité des données nommée TDQM1 peut se baser sur les 4 phases de la roue de Deming (définir, réaliser, contrôler, agir). Mais plus précisément, on peut recenser 6 étapes :

Data quality & Profilage des données

1. Profilage
des données

Etude de la structure des tables, la relation des tables entre elles, la pertinence des données et la validité de formats

Nettoyage au profit du Data Quality

2. Nettoyage

Identification des données non qualitatives, collecte et correction au sein de la base (élimination des doublons, valeurs manquantes…). C’est un processus itératif !

Homogénéisation des données et qualité

3. Homogénéisation

Standardisation et harmonisation des données sous une forme partagée permettant l’interopérabilité mais également la bonne compréhension par toutes et tous.

Dédoublonnage des données

4. Dédoublonnage
et déduplication

Suppression des doublons au sein d’un même fichier et identification des informations qui apparaissent dans plusieurs fichiers de l’entreprise pour n’en conserver qu’une seule version

Enrichir les données pour améliorer leur qualité

5. Enrichissement 

Amélioration de la complétude des données corrigées et validées en fonction de leurs usages. C’est un également un processus continu.

Reporting sur des données de qualité

6. Reporting
et surveillance

Analyse et pilotage de l’évolution de la qualité des données à l’aide de tableaux de bord et de KPI.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Quels outils pour améliorer la qualité
de vos données de référence ?

Les garants de la data quality

Plusieurs rôles sont apparus au sein des entreprises ces dernières années, avec l’importance croissance portée sur la qualité des données. On citera en particulier le Master Data Manager, souvent lié à l’utilisation d’un MDM, le Data Steward qui facilite l’accès aux données par les métiers ou le Data Owner qui garantit la qualité finale des données. Les postes de direction comme le CDO (Chief Data Officer) et DME (Data Management Executive) sont aussi les premiers sponsors de ces transformations.

Si la constitution d’une équipe pluridisciplinaire– data quality manager, architecte de données, data scientists, data steward, data protection officer– est indispensable pour mener à bien votre démarche de data quality, n’oubliez pas de choisir les bons outils !

Notre conviction : associer les visions Data et Process au service de la data quality

Chez Blueway, nous avons la conviction que data et process sont intimement liés. C’est pourquoi le module Process Governance de notre plateforme Data Foundation vous permet de comprendre vos processus métiers et les usages qui sont en lien avec la donnée.

Pour gérer vos données maîtres clients/fournisseurs, produits et financières – le module MDM , Data Governance, associé aux autres modules de la plateforme, vous permet de superviser et d’automatiser toutes vos actions autour des données : collecter, transporter, enrichir, déverser… Pour améliorer la qualité de vos données, vous pourrez modéliser vos référentiels, créer vos indicateurs et assurer la pertinence, l’unicité et la traçabilité des informations, tout au long de leur cycle de vie !

Vous souhaitez en savoir plus ? Échangez avec nos experts : la data quality nous passionne depuis toujours !

Au plaisir de discuter avec vous !

Choisir un logiciel workflow : quels critères retenir ?

Gérer un flux de travail (la traduction de workflow) consiste à coordonner un ensemble d’actions faisant intervenir un ou plusieurs participants (internes ou externes à l’entreprise), voire des automatismes (calcul, mise à jour d’information, tâche automatisée…), selon la complexité du flux. Ce flux de travail est souvent la représentation graphique ou la modélisation d’un processus métier réalisée avec un logiciel de workflow.

L’enchainement des tâches ainsi que les interactions entre les acteurs internes ou externes et le SI peut être figé ; on parle de workflow procédural. Lorsqu’il est dynamique, c’est-à-dire lorsqu’il s’adapte à des événements ou des décisions collaboratives ; on parle alors de workflow ad hoc. Dans les deux cas, le workflow peut être utilisé pour automatiser un processus et/ou pour aligner un logiciel avec les besoins métiers.

Selon le Gartner, il existe deux types de gestion de workflow :

  • L’intégration des processus internes et externes : une approche du workflow afin de définir les processus d’entreprise transverses qui couvrent plusieurs applications, y compris celles qui proviennent de différents fournisseurs.
  • Les événements ou processus automatisés : une approche du workflow qui permet d’exécuter des tâches automatisées comme celles liées aux étapes d’une campagne de marketing au travers d’un outil de marketing automation par exemple.

Pourquoi la digitalisation des processus est loin d’être un sujet dépassé ?

Un logiciel de workflow, pour quoi faire ?

Le design de workflow avec un logiciel BPM est la première étape pour automatiser certains processus au sein de l’entreprise : les tâches à faible valeur ajoutée et répétitives mais également des séries de tâches dites « intelligentes » qui peuvent être désormais traitées grâce à l’IA et au Machine Learning, avec le concept de RPA.

L’automatisation par workflow fait succéder les tâches, les données, les échanges d’un processus dans un ordre bien défini par des règles.

Cette orchestration permet d’améliorer le circuit de validation et le respect des délais en partageant à chaque intervenant du processus l’information nécessaire à la bonne exécution de ses tâches. Grâce à la traçabilité des échanges, les managers peuvent également mesurer la performance et identifier les éventuelles difficultés.

Trop souvent, les workflows sont gérés “à la main » dans le code, ce qui rend la maintenance délicate. Un moteur de workflow combiné à un moteur de règles permet ainsi d’exécuter, par un exécutable BPEL par exemple, la définition des processus et de les interfacer avec des applications ou d’autres systèmes de gestion de workflow. Il est alors possible d’optimiser régulièrement ces processus et de les implémenter rapidement et correctement.

Workflow & BPMN 2.0 : en route vers l’automatisation

Pour permettre un langage commun entre les différents métiers et la DSI, la norme BPMN (Business Process Model and Notation) est un standard couramment utilisé pour modéliser les processus. Il comprend par exemple des symboles structurés, des diagrammes de processus, de collaboration, de conversation et de chorégraphie, constituant la « partition » d’un processus.

Depuis 2011, la version 2 du standard ISO/CEI 19510 a fait évoluer ce langage vers un schéma d’échange basé sur XML permettant la conversion de modèles exécutables en langage BPEL, destiné à automatiser et implémenter des processus applicatifs.

La majorité des logiciels BPM a désormais adopté ce standard pour modéliser et exécuter les processus métiers.

Quelle différence entre un moteur de workflow et un moteur de règles ?

Le moteur de workflow et le moteur de règles, outils indispensables pour l’automatisation de processus complexes, sont souvent confondus. Pour simplifier, un moteur de workflow est un routeur qui permet d’exécuter les différentes instances du workflow de manière séquentielle ou conditionnelle (cheminement à embranchements) en fonction d’un jeu de règles. L’outil peut gérer la définition de ce dernier dès lors que les règles sont simples et peu nombreuses : opérateurs booléens, champs de données du processus, valeurs saisies, etc.

Dans le cas de routages plus complexes, le moteur de workflow peut se connecter à un moteur de règles qui sera en mesure de gérer un nombre important de règles sophistiquées, changeantes ou saisies en langage naturel. Le moteur de workflow peut être considéré comme le convoyeur et le moteur de règles comme l’aiguilleur.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Comment choisir votre logiciel de workflow ?

Si les outils du marché se valent souvent en termes d’ergonomie, un bon logiciel de workflow doit comprendre les fonctionnalités suivantes en vue d’automatiser efficacement et à moindre coût vos processus :

  • Un studio de design de workflow incluant des outils de création ou des modèles de processus hybrides (interaction homme-machine) utilisant la norme BPMN 2.0
  • Le WYSIWYG pour bâtir à la souris des écrans utilisateurs de saisie, des IHM, des formulaires, des portails en CSS…
  • Des outils de simulation et de mise au point pour tester, débuguer, etc.
  • Des modules « accélérateur » du BPM (CEP, BAM, MDM, Mashup, BRMS…)
  • Des fonctions d’orchestration des flux et d’automatisation avec le RPA
  • Des fonctions de routages dynamiques ainsi qu’une supervision des traitements : gestion des alertes (mail, sms,), gestion des délégation (rôles et responsabilités), traçabilité
  • Un portail collaboratif de suivi pour chaque intervenant : visibilité sur les tâches qu’il doit réaliser ou qu’il a initiées ainsi que sur les KPI
  • La gestion du référentiel d’organisation : fiches processus, procédures, notes d’organisation, modes opératoires, notices, etc…

Cependant, au-delà de ces fonctionnalités classiques, nous conseillons de ne pas limiter sa vision de la gestion des processus métiers à un logiciel de workflow standard. En effet, mettre en œuvre et piloter les processus au sein de l’entreprise implique que les processus puissent facilement échanger des informations avec les applications du système d’information pour les mettre à jour, les exploiter et les mettre à disposition des utilisateurs dans le cadre de leurs tâches. Un processus sans adhérence forte au Système d’Information n’est qu’un enchainement d’écrans sans grande valeur !

L’interopérabilité entre processus et données : le cœur d’une entreprise agile

Un logiciel de workflow adhérant au Système d’information : un critère important

L’étude d’un processus technique ou hybride conduit à l’analyse d’un grand nombre de fonctionnalités, de méthodes, d’applications et de services de l’entreprise.

C’est pourquoi, de la modélisation des processus à leurs traitements, il est très important de s’assurer que la solution de workflow « adhère » au SI. Il faudra veiller à ce que votre logiciel assure une interopérabilité et une normalisation des données et dispose de connecteurs techniques (Webservices, bases de données, fichier textes et XML, LDAP, mail…) et métiers (applications de type ERP, CRM, SCM…) permettant de réduire les temps de développement et d’intégration.

Pour cela, l’architecture fonctionnelle doit être bâtie autour d’un ESB (Enterprise Service Bus). C’est le bus applicatif qui sera garant de l’acheminement des échanges et de la persistance des messages échangés.

Notre conviction chez Blueway : associer les visions worflow et data

Notre objectif chez Blueway est de réunifier les différentes dimensions des échanges d’informations, et en particulier les facettes processus/worflow et data. Nous repositionnons ainsi les hommes sur leur valeur ajoutée et mettons les données au service de leurs processus métiers.
Notre plateforme Blueway réunit ainsi les dimensions BPM (Business Processus Management) pour la gouvernance des processus et workflows, ESB (Enterprise Services Bus) pour la gouvernance des flux au sein du SI et l’interopérabilité data/workflow et MDM (Master Data Management) pour la gouvernance des données.

Vous souhaitez en savoir plus ? Échangez avec l’un de nos experts sur les logiciels de workflow !

Au plaisir de discuter avec vous !

Dans sa vision métier, le processus englobe aussi bien des données que des étapes, des traitements… C’est une fois arrivé à sa transcription dans des outils que la différence se fait parfois. Pourtant, cloisonner data et processus est une erreur : c’est la vision métier qui prime et elle ne doit pas être conditionnée à des contraintes techniques ou d’outils !

C’est cette association, cette interopérabilité entre data et process qui permet au processus d’adhérer réellement au Système d’Information, d’éviter la multiplication des outils et donc au final de renforcer l’agilité de l’entreprise et l’évolutivité du Système d’Information. Cette vision globale et partagée des processus et des données est au cœur des convictions de Blueway !

Le Processus Mining en synthèse

Le Process Mining est justement au croisement de ces deux sujets :

  • L’approche data : les données, leur structuration, leur centralisation, leur visualisation
  • L’approche Processus : la modélisation, l’automatisation et l’exécution d’enchainements de séquences d’événements

Le process Mining va ainsi analyser les données liées à l’exécution des processus afin d’en tirer des axes d’optimisation. Il est au croisement du BPM (Business Process Management) et du Data Mining (fouille et analyse des données).

Toutes les clés pour consolider l’avance stratégique que les
outils de PI pourront vous
apporter

En résumé le Process Mining est une analyse des processus au travers des données qui circulent dans leurs flux. Il se focalise donc sur les « faits » ! Les termes Process Mining et Process Intelligence sont très proches : La Business Process Intelligence (BPI) fait référence à l’application des techniques de data mining et de process mining dans le domaine de la gestion des processus métier (BPM).

De nombreux acronymes sont d’ailleurs apparus autour de ces thématiques ces dernières années comme BAM (Business Activity Monitoring), CPM (Corporate Performance Management) ou CPI (Continuous Process Improvement).

Mais concrètement, à quoi sert le Process Mining ?

Dans les organisations, tout est processus. Durant leur cycle de vie, chaque processus va générer et modifier des quantités d’information très importantes. En multipliant cela par le nombre de processus au sein des organisations, on arrive à des volumes énormes de données qui sont généralement sous-exploitées.

Chaque application du SI peut certes analyser ses propres données. Cependant les processus sont transverses au Système d’Information et l’analyse de leurs données ne doit pas être cloisonnée par application ! Pour être efficace l’analyse des processus doit donc se positionner au niveau métier. Elle doit aussi englober les « event logs » qui sont habituellement peu exploités.

Le Process Mining répond à cet enjeu. Il analyse les données des processus opérationnels au niveau de l’ensemble du Système de l’Information, indépendamment de chaque brique logicielle. Il assure ainsi d’appréhender les processus tels qu’ils se déroulent réellement dans l’organisation. Par rapport à des analyses plus standards, il va s’appuyer et examiner les données liées aux événements en temps réel. Cette approche va lui permettre de corréler une masse énorme d’informations directement en lien avec le déroulement terrain des processus pour en tirer une compréhension 360° : comportements, réalité vs modèles…

Les bénéfices du Process Mining :

En vous permettant d’appréhender l’état et le fonctionnement réel de vos processus, le PM apporte des bénéfices à plusieurs niveaux : 

Améliorer la modélisation de processus

Améliorer la modélisation des processus

Identification d’axes d’amélioration sur la modélisation des processus (modèle théorique vs exécution pratique)

Améliorer opérationnellement les processus

Optimiser la mise en place opérationnelle

Découverte des leviers d’amélioration opérationnels (goulot d’étranglement, délais, étape non nécessaire…)

Simulation de processus

Prévoir et anticiper

Prévision au travers de scénarios de tests et optimisation prospective.

Il s’agit ainsi non seulement de « prendre le pouls » des processus mais aussi de réaliser des projections et des simulations. Le Process Mining fait ainsi le lien entre la gestion des processus et l’amélioration de la performance des organisations.

Comme le Process Mining est en grande partie automatisé (algorithmes…) et se base sur des données réelles, il limite les ressources requises au sein de l’entreprise. C’est aussi une démarche objective comme elle se base sur des algorithmes et des données réelles !

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Exemples de cas d’usage du Process Mining

Le Gartner liste cinq cas d’utilisation courants pour le Process Mining : l’amélioration des processus par la découverte et l’analyse de processus algorithmiques; l’amélioration de l’audit et de la conformité par la comparaison, l’analyse et la validation des processus algorithmiques, l’automatisation des processus par la découverte et la validation des opportunités d’automatisation, la transformation numérique en reliant la stratégie aux opérations, l’optimisation des ressources des opérations informatiques par la découverte et l’analyse algorithmiques des processus informatiques.

Process Mining : comment cela fonctionne-t-il ?

Le Process Mining analyse l’utilisation réelle des processus actifs à partir des données transactionnelles et événementielles du Système d’Information.

Cette analyse se déroule en plusieurs étapes : 

L’étape de découverte du process mining

1 Découverte

La visualisation du processus réel, tel qu’il s’est déroulé à partir des données issues des journaux d’événements du SI. La complexité de la représentation est adaptée selon les objectifs.

L’étape de conformité du process mining

2 Conformité

Ces processus reconstruits à partir du réel sont ensuite comparés avec leurs modèles théoriques. Il est ainsi possible d’identifier si les procédures et les règles de l’organisation sont respectées.

L’étape d’amélioration du process mining

3 Amélioration

Les données normalisées et consolidées sont valorisées sous des formats graphiques facilement exploitables afin d’en tirer des axes d’amélioration.

L’étape de simulation du process mining

4 Simulation

A partir des données et des déroulés réels des processus, le Process Mining peut simuler les processus et les projeter dans des scénarios futurs afin d’identifier leurs comportements et les points faibles.

Blueway et le Process Mining

Notre objectif chez Blueway est de réunifier les différentes dimensions des échanges de données, et en particulier les facettes processus et data. Nous repositionnons ainsi les hommes sur leur valeur ajoutée et mettons les données à leurs services.

C’est pourquoi, la solution Blueway est la seule plateforme qui réunit les usages BPM, MDM, ESB et API Management. C’est grâce à cette approche exhaustive des flux d’informations dans l’entreprise qu’elle intègre cette démarche de Process Mining.

Vous souhaitez en savoir plus sur le Process Mining ? Échangez avec nos experts !

Au plaisir de discuter avec vous !

La mise en qualité des données,
une évidence et un impératif

Tous les processus d’entreprise reposent aujourd’hui sur la donnée, de même que les analyses et le pilotage des projets. Les stratégies data-driven deviennent la norme, faisant dès lors de la mise en qualité des données un sujet central.

Si ce sujet pourtant évident reste en suspens pour bon nombre d’entreprises, c’est que les enjeux de la qualité des données ne sont pas toujours mesurés à leur juste valeur, et que l’organisation à mettre en place et les priorités soulèvent de nombreuses questions.

La qualité des données impacte chaque maillon de la chaîne d’information. Surcoûts inutiles, déperdition d’efforts, mauvaises prises de décision… les conséquences sont importantes sur :

  • Les processus et leur exécution : les fausser, c’est dégrader la qualité du produit ou du service final, c’est aussi perdre en efficacité et engendrer des erreurs qui peuvent être critiques si le processus est sensible.
  • La relation client : dans les échanges avec le service après-vente ou tout autre opération liée à la GRC (site e-commerce, informations clients…), la donnée doit être exacte pour accélérer la résolution des problèmes/questions et ne pas nuire à l’image de l’entreprise.
  • Les choix stratégiques : baser ses analyses sur des données de mauvaise qualité, c’est immédiatement risquer de prendre de décisions inadaptées et sélectionner des solutions qui ne sont pas adéquates.

Sans être exhaustif, ce triple enjeu suffit à illustrer l’importance de la mise en qualité des données.

Interview d’expert :
Deux retours d’expérience complémentaires sur la mise en place de solutions MDM (Master Data Management)

Quelles étapes suivre
pour mettre en qualité ses données ?

La mise en qualité des données ne peut être réalisée en mode « Big Bang ». Elle nécessite de bien connaître son organisation. Il est essentiel de structurer sa démarche de façon à couvrir tous les aspects et à bien cadrer le projet :

Audit de la donnée et définition des usages 

Mettre en qualité ses données, c’est d’abord bien les connaître ! Il est important d’auditer ses données — nomenclature, mode de gestion, processus qui l’utilisent… — et de réaliser une cartographie.

En effet, la qualité de la donnée dépend en grande partie de l’usage qui en sera fait. Il faut donc décider des critères essentiels qui présideront à sa mise en qualité. On se concentrera en premier lieu sur l’exactitude, l’exhaustivité, la pertinence, l’actualité ou encore la cohérence de ces données.

Les objectifs, besoins et attentes des métiers doivent présider aux choix de format, de contenu et de disponibilité. Il est primordial que la donnée soit exploitable rapidement par toutes les applications concernées.

A la définition des usages futurs de la donnée doit s’associer un audit précis de l’existant.

Une analyse statistique des données permettra d’en connaître l’état actuel (anomalies, doublons, valeurs) et de déterminer les relations entre tous les jeux de données.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Définition de règles de formulation et de gouvernance de la donnée

Vient ensuite le choix des règles, de l’organisation et des outils. Ceux-ci permettront de maîtriser la donnée et d’y accéder en temps voulu, selon des parcours de validation établis.

Pour mettre en place une gouvernance de la donnée, on définira en particulier les points suivants :

  • Le contenu des méta-données : celles-ci consignent à la fois la nature des données et le traitement à leur apporter. Leur gestion sémantique doit donc être complète et pointue pour garantir que tous les utilisateurs trouvent facilement les jeux de données adéquats et adaptés à leur besoin.
  • Les outils de recherche et d’unification de la donnée : le dictionnaire de données — qui liste et classifie l’ensemble des données de l’entreprise —, le glossaire de données — pour les explications sémantiques des données et leur contextualisation — et le Data Catalog — mettant en relation glossaire et dictionnaire — participent à l’alignement des visions IT et métier.

Plus unifiées, les données répondent ainsi aux besoins fonctionnels des métiers tout en étant plus simples à partager.

  • Des rôles doivent également être définis pour contrôler la donnée et son enrichissement. Des collaborateurs tels que le Chief Data Officer, et plus opérationnellement le Data Steward ou le Data Quality Manager, seront directement responsables de la qualité des données et de leur préparation pour un usage rapide par les métiers. Leur tâche est également de préparer la diffusion de la donnée dans un contexte de forte exigence des marchés (besoin de gérer le cycle de vie de la donnée, de traçabilité, de conformité réglementaire). Plus globalement, ils participent aussi à faire progresser « culture data » de l’entreprise.

Au-delà des ces points opérationnels, l’entreprise doit aussi prendre du recul sur sa stratégie data et sur l’organisation de sa gouvernance. Celle-ci peut passer par la mise en place d’une instance de gouvernance de la donnée et repose aussi sur une acculturation des équipes aux enjeux autour de la donnée (ou Data Literacy). Dans tous les cas, cette vision doit être transversale à l’entreprise et portée par des membres de la direction.

Une fois le cadre défini, la démarche de mise en qualité elle-même peut être initiée.

Avant d’implémenter une solution, il est important de formuler une trajectoire et des étapes clés. Une réflexion qui doit mutualiser les visions technique et métier : le formatage des données pour les métiers ne sera utile que si les flux sont maîtrisés et les solutions bien intégrées au SI et inversement !

Sélection et implémentation des solutions liées à la mise en qualité des données

La démarche de mise en qualité des données est multifacettes. Adopter une triple approche « données / flux / processus » est le meilleur moyen de mener une réflexion complète sur la centralisation et l’harmonisation des données. Il est en effet crucial que la donnée conserve toute son intégrité, de la collecte jusqu’à l’utilisation métier.

La combinaison des solutions MDM, ESB et BPM permet de traiter la donnée sous chaque angle et de concilier vision technique et prérequis métiers.

MDM

Le Master Data Management (ou Gestion des Données de Référence) compile une version unique et qualitative des données : dédoublonnage selon des règles métiers personnalisables, traçabilité et contrôle, suivi des données tout au long de leur cycle de vie. L’outil génère automatiquement des webs ervices d’acquisition et exposition des données, harmonisant la data qui sera partagée à l’ensemble du SI.

ESB

Le bus applicatif normalise quant à lui les échanges, participant à conserver une donnée unifiée et exploitable entre toutes les applications et pendant tout son cycle de vie. L’interaction MDM/ESB est bidirectionnelle, avec un enrichissement du référentiel de données par les applications métiers elles-mêmes.

Les données transmises aux applications du SI sont sécurisées (cryptage, compression, procédures de validation) et l’emploi de demi-connecteurs contribue à une donnée moins transformée.

BPM

Le Business Process Management permet de faire vivre la donnée tout au long de son parcours et de la mettre à profit des métiers. Au fil des processus, les métiers participent à son enrichissement et accroissent sa valeur. Cette démarche assure une excellente adhérence des processus au SI, et une interopérabilité forte entre processus et datas.

Projet d’urbanisation du SI : n’oubliez pas d’intégrer des activités humaines !

Quelle que soit la solution — ou la combinaison de solutions — choisie(s), il est important de procéder par étapes : lorsqu’il s’agit de mise en qualité des données, comme nous l’expliquions précédemment, l’approche Big Bang n’est pas pertinente. La trajectoire sera définie selon les périmètres de données prioritaires afin d’avancer par étapes et consolider au fur et à mesure. Sur chacun, la donnée devra subir une véritable préparation (collecte, élimination des doublons, ajout des valeurs manquantes) et la connectivité des solutions être contrôlée en cours d’implémentation pour fournir des bénéfices rapides. Il ne s’agit pas de mettre en place des briques ESB, MDM, BPM… mais qui communiqueraient mal !

Intervention en temps réel et amélioration en continu de la qualité des données

Par ailleurs, la mise en qualité des données ne s’arrête pas à l’étape d’implémentation d’une solution : il est en effet nécessaire de la suivre au fil du temps et des évolutions organisationnelles et applicatives de l’entreprise.

Pour cela, il est essentiel d’associer dynamiquement les activités humaines et techniques : l’humain est partie intégrante de la chaîne au travers d’IHM et de la possibilité d’agir sur les données pour les enrichir, corriger, valider…

La mesure, mais aussi les systèmes de rappels et d’alertes doivent permettre d’identifier et de solutionner en temps réel les problèmes de qualité les plus importants. Un outil de gestion des incidents permettra de mieux remonter à la source des erreurs : reporting, tableaux de bord et assignation des tâches permettent d’améliorer en profondeur les processus et de corriger les erreurs de saisie et les autres causes de disfonctionnements. Cette console de pilotage doit prendre en compte aussi bien la supervision des flux de données, des processus que de la data quality

Ainsi, les problèmes de qualité de la donnée doivent pouvoir être signalés aux métiers au moment de leur apparition, mais aussi de manière régulière au sein de rapports et tableaux de bord. Ceci permet d’instaurer davantage de bonnes pratiques lors de la saisie et de faire entrer la mise en qualité dans la culture de l’entreprise.

L’automatisation soutiendra quant à elle le respect des règles définies en début de parcours. Les solutions choisies doivent permettre la validation systématique des données avant consignation dans le référentiel. Au gain de qualité, s’ajoute un gain de temps !

Chez Blueway, nous avons la conviction que data, flux et process sont interdépendants et servent tous l’enjeu de qualité des données. La gouvernance des données et les solutions à mettre en place doivent donc intégrer l’ensemble de ces dimensions. C’est la vocation de la plateforme Blueway !

Vous souhaitez échanger sur les solutions de MDM ? Prenez rendez-vous !

Quelles causes pour les silos de données ?

Les silos de données sont encore une réalité pour bien des organisations. Fragmentées par les pratiques des différents services et la collecte massive d’informations, ces données sont pourtant stratégiques pour l’entreprise. Fiabilité, unicité, valorisation pour toute l’entreprise, exploitabilité sont des impératifs ! Informations client, données financières ou liées au transport de marchandises : le désilotage de toutes les données passe par une bonne connaissance des causes, par la mise en place d’une organisation et de pratiques adaptées et par l’emploi des bons outils applicatifs.

Les silos de données nuisent tant à l’opérationnel et au SI qu’à la stratégie d’entreprise

Les silos de données sont synonymes d’informations métier cloisonnées dans les services au lieu de circuler dans l’entreprise et d’être valorisées. La conséquence : une perte d’efficacité aussi bien dans le quotidien des équipes qu’au niveau technique et décisionnel de l’entreprise.

Pour les collaborateurs, ces silos de données ont concrètement pour effet de :

  • Diminuer l’efficacité et le temps disponible des équipes, qui doivent retrouver et trier les données lorsque celles-ci sont nécessaires
  • Créer des doublons de données entre services, que les silos empêchent de rapprocher, et donc d’éliminer
  • Rendre l’obsolescence des données et leur cycle de vie difficiles à contrôler : un problème de taille pour le respect des réglementations, notamment le RGPD
  • Limiter l’enrichissement des données et le travail collaboratif : plusieurs versions de la donnée coexistent, lesquelles divisent la vision et créent des incohérences entre services

Plus globalement, cette forme de rétention de la donnée empêche le partage des visions métier, pourtant essentiel pour apporter précision et qualité au produit ou au service final.

Les silos ont également des impacts majeurs sur la circulation des flux de données, tels que :

  • Une plus grande lourdeur de l’IT : les silos créent un besoin de stockage plus important et de nombreux doublons
  • Le croisement des données issues de services différents est une opération complexe, contraignante sur le plan technique
  • La circulation de la donnée entre services cloisonnés génère des lenteurs et des interruptions : celles-ci nuisent non seulement à l’efficacité des métiers, mais aussi au parcours des utilisateurs. Il est alors impossible d’instaurer une expérience omnicanale.

Enfin, les instances décisionnelles de l’entreprise subissent elles aussi les retombées de l’organisation en silos : une information compartimentée, obsolète ou en doublon peut mener à des stratégies erronées et à des prises de décision préjudiciables pour l’entreprise.

Comment CARGONAUT a réussi à garantir la très haute disponibilté des flux EDI à l’Aéroport Schiphol Amsterdam ?

Les 3 sources des silos de données

On peut identifier trois principales sources à l’origine des silos de données :

1. Une organisation aux services cloisonnés

  • Les départements ont historiquement l’habitude de travailler sur leurs propres dossiers, avec leurs propres outils et sans les préparer au partage (feuilles Excel, outils métier de gestion d’entrepôt ou RH…).
  • Les normes, procédures et méthodes diffèrent d’un service à l’autre et appellent une collecte et un stockage des données différents (les canaux online et offline, par exemple, sont fréquemment séparés).
  • L’organisation de l’entreprise elle-même favorise parfois les silos et doit être entièrement repensée pour mener à la circulation transversale des données

2. Un SI peu ou pas adapté

  • L’architecture du SI peut ne pas être, à l’origine, pensée pour faire circuler l’information dans toute l’entreprise : les applications, appartenant autrefois à des plateformes propriétaires séparées, ont formé au fil du temps des couches systèmes hétérogènes et peu communicantes.
  • L’entreprise ne dispose pas toujours d’applications dédiées au transport de la donnée (ESB, EAI…)
  • Les outils de collecte et transport de la donnée ne prennent pas forcément en compte certaines spécificités métier importantes
  • L’information n’est pas centralisée ni unifiée. En l’absence de données de référence, les pratiques restent compartimentées par service

3. Une défiance envers l’ouverture des données

  • Chaque service souhaite généralement conserver ses méthodes et spécificités
  • Le changement technologique implique un effort et des changements d’habitudes chronophages
  • Les services redoutent de ne plus contrôler l’usage qui sera fait de leurs données

Projet d’urbanisation du SI : n’oubliez pas d’intégrer des activités humaines !

Instaurer une version unique de la donnée dans l’entreprise

Les données non unifiées freinent considérablement l’efficacité des entreprises. Leur bonne intégration doit donc être une priorité.

La gouvernance des données permet de mieux maîtriser les flux et d’organiser l’entreprise autour d’une version unique de la vérité, qui sera relayée d’un service à l’autre et actualisée en temps réel par les métiers concernés. Elle implique :

Un changement de culture des équipes : celles-ci doivent désormais aborder la donnée comme un outil de l’entreprise, et non un élément limité à leur seul département. Les outils collaboratifs viendront soutenir ce changement de culture et faciliter le contrôle de l’enrichissement par plusieurs sources.

Un soutien de l’IT : les outils logiciels doivent ancrer les pratiques de partage des données dans le quotidien. Il est impératif de choisir des applications qui harmonisent le SI et accélèrent les flux de données métiers, sans limitation de format.

Plus de transversalité des processus : ceux-ci doivent être fluides et non limités par les silos applicatifs ou les cloisonnements entre services. Prendre du recul sur les intervenants de chaque processus permet de mieux les exécuter.

Dans la pratique, pour structurer les flux de données et atteindre ce triple objectif, deux outils essentiels sont à privilégier : le référentiel MDM et le bus applicatif ESB se combinent pour définir et faire circuler une donnée qualifiée unique, simple à enrichir et à partager entre les métiers.

MDM

Un référentiel central qui permet de maîtriser la qualité et l’exhaustivité de la donnée. Les règles de gestion métier permettent de s’adapter très exactement aux pratiques de l’entreprise et de partager des données fiables.

Au préalable, il est essentiel de procéder à une mise en qualité des données pour éliminer les doublons et adapter la data aux pratiques de l’entreprise.

ESB

Un bus applicatif qui fait communiquer les applications, quel que soit leur format de données.

Les flux sont simplifiés et les données peuvent être enrichies par les intervenants en toute transparence.

L’ESB instaure une circulation cohérente et supervisée des flux, simplifiant le partage entre services et favorisant l’engagement des métiers.

Au-delà du désilotage de la donnée, l’urbanisation du SI permet d’améliorer la disponibilité des applications, et donc l’efficacité des métiers. Un cercle vertueux qui profite, en bout de chaîne, aux prises de décision et à la stratégie.

L’offre Blueway exploite pleinement la complémentarité entre MDM et ESB : la donnée qui circule parmi vos applications est fiable, à jour, et bénéficie immédiatement aux processus métiers. Les silos peuvent ainsi être éliminés sans contrainte majeure pour les collaborateurs, entraînant de vraies synergies au sein de l’organisation.

Vous souhaitez échanger sur les solutions de MDM ? Prenez rendez-vous !

Comment mettre en place une solution de data management ?
Isabelle

Les entreprises ont maintenant pleinement conscience des enjeux de contrôle des données de référence et de qualité des données. Cependant, initier la transformation et mettre en œuvre les projets de MDM soulève encore et toujours des questions de méthodes et requiert une maîtrise des bonnes pratiques. 

Dans cette interview, Isabelle François, nous partage ses retours d’expérience sur deux projets de mise en place d’une solution de data management.

Pourrais-tu nous partager les contextes des deux projets MDM que tu as accompagnés ? 

Isabelle François : Le premier retour d’expérience s’est déroulé au sein d’un groupe industriel leader de l’emballage plastique alimentaire. Le contexte projet suit un schéma que l’on retrouve souvent : l’entreprise prévoyait de changer d’ERP d’ici un an et désirait anticiper ce projet majeur. Il souhaitait donc centraliser et mettre en qualité l’ensemble des données afin d’être prêt le jour de la bascule sur le nouvel ERP.

L’enjeu était aussi de nettoyer la donnée et de disposer d’une solution robuste, capable de diffuser l’information vers les applications sources. La priorité portait sur les objets articles et fournisseurs. En effet, la donnée était auparavant très peu centralisée, avec des requêtes techniques qui transitaient dans chaque application source. Impossible pour le siège de disposer d’une vision consolidée et agrégée des données ! On retrouvait des problématiques classiques comme la redondance d’information. Chaque application créait par exemple elle-même son fournisseur. On imagine bien les impacts que cela peut avoir au sein d’un grand groupe international…

Le deuxième projet a pris place dans un groupe international du secteur de la santé, avec des problématiques similaires. Les tiers pouvaient avoir plusieurs facettes : clients, fournisseurs… et le siège avait besoin d’avoir une vue d’ensemble des implications entre les tiers. Les enjeux étaient stratégiques : faut-il mettre en place une centrale d’achat ? Comment disposer d’une vision globale et consolidée des flux entre toutes les entités ? Avec des applications cloisonnées qui ont chacune leur propre logique et sont concentrées sur leur périmètre métier, c’est extrêmement compliqué à harmoniser.

La mise en place et l’organisation du projet de master data management a été similaire ?

I.C : Non ! Ce n’est pas parce que la cible est la même que la mise en place suit le même déroulé. Ces deux projets en sont un bon exemple. Il faut s’adapter à la maturité de l’entreprise et aux ressources internes.

Dans les deux cas, les projets MDM ont débuté par l’entité « fournisseur ». Il est souvent préférable de mettre en place les automatismes et les bonnes pratiques sur un objet plus simple, et ensuite d’ouvrir le périmètre à des entités plus complexes, comme le « produit » par exemple.

Au sein du groupe pharmaceutique, ce sont les équipes internes qui ont piloté la reprise de données au sein de notre logiciel MDM. Il y avait en parallèle un enjeu fort de mettre en place des processus pour la saisie des nouveaux fournisseurs ainsi que l’évolution et l’extension des fournisseurs existants. C’est nous qui avons pris la main sur cette dimension au travers de notre brique BPM (Business Process Management).

C’est au travers de cette brique BPM que s’est construit le « golden record » ou version de référence de la donnée. Ainsi, ces processus garantissent l’unicité de la donnée fournisseur en permettant aux intervenants de saisir les informations et de les enrichir au travers d’une suite d’interfaces. Chaque rôle va compléter et valider la donnée. Le BPM peut ensuite diffuser l’information vers les autres applications, SAP en particulier.

Dans le projet au sein du groupe industriel, nous avons coaché l’équipe du client et nous les avons guidés tout au long du projet. La première étape que nous avons pilotée, a été la reprise de données avec une trentaine de sources différentes ! Il y avait dans ce projet MDM un vrai enjeu d’industrialiser la reprise de donnée et de développer un service central pour la mettre en forme et l’intégrer dans le MDM.

Pour industrialiser la reprise de donnée, il fallait à tout prix éviter de multiplier les services selon les applications sources. Cela aurait été un vrai risque pour la mise en qualité et l’unicité de la donnée.

Isabelle François

Les données étaient ainsi récupérées automatiquement dans le MDM de Blueway en provenance de sources très variées et avec des formats hétérogènes, puis analysées et renvoyées aux sources une fois mises en qualité. En l’espace de trois mois, nous avons réussi à intégrer toutes les datas fournisseurs en provenant de plus de 30 sources, un vrai challenge ! Le premier mois, nous avons rapidement identifié les erreurs de formats, de saisie, de doublon… au sein des applications sources. Les équipes métiers du client avaient parfaitement compris les enjeux du MDM et ont été très réactives pour effectuer les corrections.

Avec ce processus industriel, les sources pouvaient continuer d’alimenter le MDM automatiquement, en attendant l’intégration du nouvel ERP.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Y a-t-il eu des contraintes spécifiques pour déployer ces solutions de data management ? 

I.C : Au sein du groupe pharmaceutique, les contraintes portaient avant tout sur les règles fonctionnelles très pointues à mettre en place au sein du BPM. Par exemple, les règles de saisie variaient selon les types de fournisseurs, la gestion de droits imposait un routage très fin des tâches et des données selon la société et l’utilisateur…

L’objectif était de contrôler toute création ou modification de fournisseur, quelle que soit la société du groupe. Il s’agissait d’arrêter de créer des fournisseurs dans chaque application et tout centraliser au sein du BPM de Blueway pour ensuite redistribuer l’information vers les applications sources.

La dimension internationale des deux projets a aussi impliqué d’avoir des applications entièrement multilingues. Ce sont des enjeux courants, mais qui revêtent des impacts particuliers dans le cas de solutions de data management.

Comme toujours, le cadrage des règles en amont, en évitant les modifications en cours de projet, est un vrai facilitateur pour éviter des impacts sur le planning. Changer les règles du jeu en cours de route implique de relancer des batteries de tests !

Avec l’arrivée du marketing dans le projet sur la partie catalogue, une fois l’entité fournisseurs traitée, on s’est aussi rendu compte de l’importance d’adapter la démarche selon les utilisateurs. Le marketing portait par exemple beaucoup plus d’importance à l’ergonomie des écrans que les utilisateurs de l’ERP. Nous avons ainsi fait évoluer l’interface pour répondre à leurs besoins et faciliter l’adoption de la solution.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Y a-t-il des points que tu souhaiterais mettre en lumière sur ces projets de data management ?

I.C : Avoir des équipes côté client disponibles, investies et avec des rôles bien définis est un vrai gage de succès. Par exemple, dans l’un des projets, l’équipe client était constituée du sponsor du projet pour valider les grandes orientations, d’un interlocuteur technique et d’une personne externe qui travaillait sur la modélisation de la donnée. Un bon trio !

L’industrialisation de la reprise de la donnée était une démarche très intéressante et qui a vraiment accéléré et fiabilisé le déroulement du projet. C’était aussi l’occasion de confirmer que Blueway était adapté pour de la récupération massive de données.

Ces projets ont aussi permis d’avancer sur le produit. Être à l’écoute du client pour répondre précisément à son besoin et intégrer les bonnes idées dans les prochaines versions de nos solutions fait partie de notre ADN. Nous sommes une PME, nous savons être agiles !  

Pour conclure, ces deux projets sont des bons exemples des atouts de Blueway. Notre client industriel nous avait sélectionné pour notre capacité à industrialiser la reprise de donnée, sans développement lourd, et servir de solution robuste en attendant la mise en place de l’ERP. Pour notre client pharmaceutique, c’est le lien entre BPM et MDM qui a fait la différence.

Dans ces deux cas, des enjeux qui peuvent paraître distincts : MDM, BPM, ESB… sont en fait très complémentaires pour réussir les projets autour de la donnée. C’est cette conviction qui est à l’origine de notre plateforme Blueway !

Vous souhaitez échanger sur les solutions de MDM ? Prenez rendez-vous !

Au plaisir d’échanger avec vous!

Pourquoi intégrer ses données d’entreprise ?

Le sujet de l’intégration des données n’est pas nouveau : les entreprises ne peuvent plus ignorer le besoin d’unifier et qualifier leur data ! Cependant, beaucoup de décideurs repoussent l’échéance du changement : l’intégration, que l’on peut définir par la mise en commun et la transformation des données depuis des sources multiples en vue de les rendre exploitables, est souvent perçue comme non essentielle face à des projets innovants plus attractifs. Pour ces organisations pourtant, il est plus que temps de finaliser cette opération, socle de la transformation ! L’entreprise peut tirer la valeur des projets liés aux applications métier, à l’IoT ou au SI hybride uniquement sur la base de données saines, cohérentes et rapidement exploitables. Les architectures non urbanisées freinent non seulement les avancées technologiques de l’entreprise, mais grèvent également le TCO du système d’information.

L’intégration des données est bel est bien un enjeu fondamental, qui doit être considéré dans sa globalité : car au-delà de l’urbanisation du SI, ce sont tous les processus métiers qui dépendent de la qualité des flux de données.

Le manque d’intégration des données et son impact sur l’organisation

Aujourd’hui encore, beaucoup de SI sont trop peu structurés, ce qui se manifeste par :

  • La coexistence d’applications anciennes et modernes communiquant en point-à-point : ce mode de fonctionnement n’est plus envisageable au vu de la diversité des sources d’information qu’exploitent les entreprises.
  • Des formats de données nombreux et non standardisés : le dialogue entre applications hétérogènes ralentit la communication, génère des erreurs et des doublons et rend difficile l’enrichissement de la data.
  • Une traçabilité des erreurs faible ou inexistante : faute de réel suivi, les blocages sont difficiles à identifier et solutionner.

Ce manque de structuration a des conséquences sur le plan technique, organisationnel et stratégique : il conduit à un traitement fastidieux des erreurs pour chaque application métier, faisant perdre un temps précieux aux équipes métier et à la DSI. Les équipes sont ainsi mobilisées sur la maintenance et la correction des erreurs au lieu de pouvoir se concentrer sur les projets innovants. De plus, la donnée est collectée de manière incomplète, ce qui nuit au croisement des informations et à la prise de décision.

Il n’est pas superflu de le répéter : la bonne intégration des données est la première étape pour exploiter celles-ci correctement ! Les données sont à la fois au cœur des flux et des processus de l’entreprise, leur qualité est donc un sujet capital.

Que la transition numérique soit largement amorcée ou à ses prémices dans l’entreprise, il est temps pour les décideurs et les DSI de se pencher sur le sujet et de solutionner enfin le problème une fois pour toutes !

Comment traiter pour de bon la question de l’intégration de données

Une intégration efficiente implique de collecter et transporter la donnée, mais aussi de pouvoir la centraliser et de l’enrichir dès que cela est nécessaire, avec une répercussion automatisée des modifications à tout l’écosystème applicatif.

Des solutions simples et complémentaires existent pour répondre efficacement à ce besoin :

Comment intégrer ses données avec l’ESB ?

L’ESB (ou bus applicatif) urbanise les flux et les sécurise, deux prérequis essentiels pour les entreprises dont le Système d’Information évolue. Plutôt que d’aller chercher la donnée à chacune de ses sources, les applications métier peuvent récupérer celle-ci dans le bus applicatif grâce à un mode d’échange normalisé. La capacité de transformation des formats de données par l’ESB permet aux applications de dialoguer en continu.

Le référentiel de données unique MDM permet de centraliser et gérer des données de référence saines, que les applications pourront utiliser. Les doublons et silos d’information sont éliminés. Le MDM s’associe à l’ESB pour faire circuler dans le SI une data contrôlée et distribuer la même information à toutes les applications.

Comment le MDM facilite l’intégration de données ?

Par le couplage de ces deux solutions, on obtient des flux de données fiables et traçables, mais surtout plus pérennes. La mise en œuvre de l’ESB et du MDM fluidifie les échanges inter-applicatifs et garantit l’intégration des données : pourquoi ne pas franchir le pas dès à présent ?

Projet d’urbanisation du SI :
n’oubliez pas d’intégrer des activités humaines !

L’intégration de données comme socle pour l’innovation

Bien sûr, l’intégration des données n’est pas une fin en soi. Elle n’est là que pour servir vos objectifs métiers et accélérer votre transformation. 

En effet, les flux de données circulent dans toute l’entreprise et alimentent ses processus. Améliorer la qualité de la donnée et son transport, c’est donc augmenter la performance de ces processus via :

  • Le gain de temps : mise en qualité avant distribution, transport automatisé synchrone ou asynchrone, élimination de tâches de codage chronophages…
  • La réduction des erreurs : collecte de la data automatisée qui prévient les oublis et les erreurs, mises à jour automatiques et modifications automatiquement répercutées, rapports toujours actuels…
  • La collaboration : meilleur dialogue entre les applications (et donc les métiers), enrichissement des données par tous les intervenants, accès simplifié depuis des sites distants…
  • L’amélioration continue : identification des problèmes liés à la donnée, adoption de bonnes pratiques, préparation des données avant diffusion…

Pour les DSI, l’intégration des données n’est pas une finalité : ses objectifs doivent être expliqués en interne de l’organisation pour faire comprendre l’importance du projet. L’unification des flux circulant à tous les niveaux permet avant tout de se préparer aux défis posés par l’innovation :

L’intégration des données pour servir l’IoT

IoT

Les objets connectés constituent de nouvelles sources d’information, amenées à échanger fréquemment avec le SI. Ces nouveaux dispositifs posent des questions d’efficacité et de sécurité inédites. La donnée doit être échangée avec le même niveau de qualité qu’elle le serait sur site.

Comment l’intégration de données peut faciliter l’exploitation du Big Data ?

Big Data

La quantité de données à traiter ne cesse d’augmenter : le Big Data implique de fortes volumétries, des données hétérogènes et un besoin de traitement rapide. L’automatisation intelligente des flux devient indispensable pour tirer parti des data lakes.

Comment faire face au SI Legacy en intégrant ses données ?

Migration du SI Legacy

Pour faire face à l’évolution rapide des formats et des nouvelles applications, le SI existant doit dialoguer vite et efficacement. L’harmonisation des flux est au service de la communication entre anciennes et nouvelles applications.

Intégration des données et Cloud hybride

Cloud hybride

Une infrastructure Cloud hybride offre plus d’agilité, à condition de pouvoir identifier ses flux critiques et dissocier facilement les applications pour les migrer.

Comment renforcer la BI avec l’intégration de données ?

Business Intelligence

Pour répondre efficacement aux besoins en visualisation et analyse de données, l’information doit être fiable, qualitative et enrichie.

Comment intégrer ses nouvelles applications métiers ?

Ajout de nouvelles briques applicatives

Les nouveaux outils métier s’intègrent plus facilement au SI lorsque les flux de données sont urbanisés.

C’est un fait : l’intégration des données va plus loin qu’une simple question d’infrastructure. Urbaniser ses flux et son SI, c’est en réalité s’offrir des outils pour accélérer la transformation digitale et les projets innovants dans l’entreprise. Les bénéfices de l’intégration des données pour les enjeux métier ne sont plus à démontrer. Les solutions existent et sont maîtrisées. Des arguments suffisants pour enfin passer à l’action, clore définitivement le sujet et vous concentrer sur les nouveaux projets stratégiques de votre entreprise !

Vous souhaitez échanger sur vos enjeux d’intégration de données ? Prenez contact avec nous !

Au plaisir d’échanger prochainement !

Comment faire communiquer ERP et WMS ?

L’ERP (Enterprise Resource Planning) et le WMS (Warehouse Management System) répondent tous deux à des besoins essentiels et complémentaires. Entre vision globale et gestion de terrain, il est souvent nécessaire de consolider l’information pour accélérer les traitements de commandes et mieux planifier ses stocks. La communication entre ERP et WMS a un impact sur l’organisation de l’entreprise, mais aussi celle du système d’information. Pour que ce lien inter-applicatif soit efficient et ne se dégrade pas au fil du temps, il est nécessaire de mettre en place une solution robuste et évolutive.

L’ERP, point d’accès central à l’information de l’entreprise

L’ERP est au cœur des organisations industrielles et de nombreux autres secteurs d’activité. Ce puissant outil de gestion et de pilotage centralise l’information métier et fournit un suivi de l’activité en temps réel. Son caractère global et ses tableaux de bord modulaires en font la solution maîtresse des décideurs et responsables métier.

En effet, l’ERP répond à un besoin de consolidation et de traçabilité de l’information : éléments financiers, des achats, de la production, des plannings…  Les produits sont ainsi suivis de leur conception à leur expédition et leur conformité est mieux assurée.

Ce progiciel de gestion intégré contribue à la rationalisation des coûts : grâce à l’élimination des erreurs et au soutien décisionnel, les entreprises maîtrisent mieux leurs projets et leur production.

L’ERP a une profonde influence sur le système d’information. Placé au cœur du SI, il offre un accès central à une part importante des données de l’entreprise, lequel simplifie en profondeur l’utilisation des multiples informations métier. Il est donc logique que les entreprises souhaitent le connecter avec d’autres outils du Système d’Information.

Comment le groupe Mecachrome a optimisé ses processus de demandes d’achat ?

Le WMS, solution de terrain qui transforme la gestion d’entrepôt

Parmi ces outils métier figure le WMS, ou Warehouse Management System. Ce progiciel encadre et soutient la préparation des commandes, optimisant l’espace disponible et améliorant la qualité des colis expédiés. Il instaure une gestion intelligente des entrepôts précieuse pour les entreprises dont l’activité est soutenue.

Parfois confondu à tort avec l’ERP, le WMS est en réalité un outil dédié, aux fonctionnalités avancées : celles-ci touchent à l’approvisionnement, l’entreposage, l’inventaire, ou encore la préparation. Le rôle essentiel du WMS : mettre en adéquation les ressources (espace disponible, préparateurs, transporteurs…) avec le besoin et la stratégie d’entreprise.

La solution a donc un impact fort sur la performance de la gestion des stocks. En facilitant la gestion d’entrepôt, elle permet de mieux anticiper la demande et les besoins futurs, et de mieux valoriser ses ressources.

La nécessaire communication entre deux solutions clés : ERP et WMS

Ces deux solutions, dont la place dans le SI est essentielle, doivent donc nécessairement communiquer pour délivrer la meilleure performance possible. L’intégration des outils est d’autant plus importante que la gestion d’un entrepôt est conditionnée par des informations provenant de l’ERP, et inversement :

  • Côté entreprise, la gestion d’entrepôt impacte notamment les ressources humaines à mobiliser, les finances à anticiper, l’orchestration des processus de production et de stockage pour optimiser l’espace disponible. Le WMS transmet des informations précises (stocks, marchandises réceptionnées ou expédiées) qui contribuent à la réduction des stocks coûteux ou non utiles, et plus globalement au pilotage de l’activité
  • Côté entrepôt, les processus sont conditionnés par ce que l’entreprise peut mettre à disposition et par la validation d’opérations (commandes, ajout de produits) via l’ERP. Ce dernier gouverne les prises de décision et transmet la donnée utile afin que les processus d’entrepôt soient bien exécutés. A la clé, une amélioration des capacités de stockage, l’élimination des tâches inutiles et donc des coûts réduits.

Les interactions entre ERP et WMS mettent en commun plusieurs visions métier : l’une plus stratégique, l’autre plus granulaire et opérationnelle. Les deux doivent impérativement parler le même langage et faire circuler l’information en temps réel.

Pour cela il va être nécessaire de :

ERP WMS Harmoniser les « langages » des deux outils

Harmoniser les « langages » des deux outils :

Le WMS doit disposer des codes et pratiques de l’ERP pour s’harmoniser avec les processus en vigueur.

Data governance for lifecycle management

Eviter les doublons :

Une information saisie à la fois côté entreprise et côté entrepôt peut créer un doublon. Le rapprochement doit être automatique et l’orchestration des flux d’informations doit permettre d’éviter les erreurs.

Business processes with BPM

Informer instantanément chaque partie en cas d’évolution majeure :

Commandes spécifiques, ruptures de stock et autre événement à fort impact sur l’activité doivent être notifiés de manière efficace d’un outil à l’autre.

MDM software servers and applications

Disposer d’une base d’articles exhaustive :

Les deux outils doivent travailler en synergie pour que tous les produits soient listés et leurs caractéristiques intégralement exploitables par le WMS. Pour cela, il est nécessaire de disposer du profil logistique des produits (propriétés, lot, conditionnement…).

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

Urbaniser son SI pour piloter l’interaction entre ERP et WMS

L’objectif, en reliant ERP et WMS, est d’instaurer des échanges d’informations instantanés et de ne pas restreindre les processus métier au périmètre d’une application. Ceux-ci vont contribuer à une meilleure sélection des produits stockés et une parfaite orchestration des tâches de préparation : réapprovisionnement automatique, contrôle qualité systématique, seuils d’alerte déclenchant une notification… Une fois remontées à l’ERP, ces données et alertes sont un socle d’amélioration de l’offre et des méthodes de travail.

Mais bien que fédérateur et puissant, l’ERP n’a pas vocation à assurer lui-même cette communication inter-applicative. Souvent considéré, à tort, comme une plateforme d’intégration par les entreprises, le progiciel de gestion est parfois relié aux outils métier via des connecteurs standards ou spécifiques, multipliant les interfaces point à point. Pourtant, si l’ERP est un outil clé du SI et supporte la gestion du transactionnel, il n’a pas vocation à unifier et transporter l’information !

L’évolution des pratiques et des formats de données, et les changements de briques applicatives ne doivent pas empêcher l’interaction entre ERP et WMS.

Ainsi, pour assurer la pérennité de la solution choisie, le plus important est d’opter pour la flexibilité : les briques applicatives doivent pouvoir être retirées ou modifiées selon l’évolution de l’entreprise. L’ERP et le WMS peuvent ainsi évoluer au fil de l’activité, le changement — ou le vieillissement — de ces outils ne constituant pas un frein.

Avec son approche globale des échanges de données, en particulier au travers d’un bus applicatif (ESB), Blueway apporte une relation inter-applicative flexible, évolutive et supervisée entre ERP et WMS. L’ERP peut à tout moment échanger une information complète et à jour avec le WMS et toutes les autres solutions métier. On évite ainsi les interfaces point à point peu évolutives : le SI s’urbanise autour d’une solution centrale et peut s’enrichir au fil des besoins.

Cette urbanisation garantit l’alimentation de tous les processus de l’entreprise. Loin d’être limitée à des périmètres métier, la donnée peut alors être pleinement exploitée, sans restriction applicative. La modélisation des processus au travers du BPM contribue alors à une distribution stratégique des informations d’entreprise à tous les intervenants qui en ont besoin, indépendamment des contraintes de chaque brique logicielle.

Ainsi, c’est non seulement le Système d’Information lui-même qui est rationalisé, mais aussi l’organisation et ses processus. Le bus applicatif permet de mettre véritablement le système d‘information au service des métiers, et de chaque brique applicative, ERP et WMS en tête. Un enjeu aujourd’hui prioritaire pour performer !

Vous souhaitez échanger sur l’interconnexion entre 2 applicatifs ? Prenez rendez-vous avec l’un de nos experts !

Au plaisir d’échanger avec vous !

Comment urbaniser son Système d’information hybride ?

Alors que l’idée de migration dans le Cloud est sur toutes les lèvres, les PME et ETI s’appuient encore majoritairement sur des infrastructures hybrides, entre Cloud et on-site.

Pour ces organisations, une transition progressive est souvent la seule manière d’avancer sans heurt, en faisant évoluer une à une les diverses briques applicatives. Les outils métiers s’intègrent ainsi à l’architecture dans le Cloud, en fonction des capacités techniques et au gré des besoins.

Au fur et à mesure de la progression des applications SaaS dans les entreprises, se créent des systèmes de plus en plus hybrides. Bien souvent, cet environnement composite est appelé à durer : dans les faits, peu d’entreprises peuvent imaginer migrer leur SI à 100%. La plupart d’entre elles devront toujours composer avec des environnements hétérogènes et les contraintes que ceux-ci impliquent.

Dans ce contexte, la structuration du SI est une nécessité. Au-delà même de l’organisation des échanges, l’urbanisation du système d’information peut avoir un impact fort sur les performances des architectures hybrides.

Quels enjeux d’urbanisation apparaissent avec la cloudification du SI ?

1. La diversité d’applications et de formats

Avec l’essor des outils en mode SaaS en parallèle des applications sur site, les systèmes d’information se complexifient. De plus en plus de versions et de générations de logiciels sont ainsi amenées à coexister, certaines très anciennes.

Toutes ces différences créent des disparités de langage : les normes et formats diffèrent, certains finissant par être obsolètes. La communication devient difficile entre des applications n’utilisant pas les mêmes codes.

Ces échanges hétérogènes peuvent rapidement entraîner un traitement erroné ou incomplet de la donnée. Celle-ci est pourtant une aide décisionnelle précieuse et son intégrité doit être préservée.

2. Le cycle de vie des applications

De leur déploiement à leur fin de vie, les applications évoluent de manière différente, et leur maintenance également. Ce phénomène est accentué par les outils en mode SaaS, dont l’évolution est rapide, les changements de version fréquents et les maintenances automatisées.

Ces applications sont pourtant interdépendantes. Et plus leurs évolutions sont disparates, plus ces interdépendances sont difficiles à maîtriser. En cas de mise à jour trop tardive ou d’erreur d’une application, c’est l’ensemble du parc qui peut être impacté durablement.

Harmoniser et cartographier le SI en tenant compte de ces dépendances va permettre de localiser les sources d’erreur et d’éviter de bloquer les processus métiers qui exploitent la donnée.

3. La disponibilité des applications

La disponibilité applicative est cruciale pour mettre en œuvre les processus informatiques et métiers transversaux au Système d’Information. Dans le cas des applications SaaS, cette disponibilité peut être perturbée et entraîner des problèmes de transmission de l’information, voire des pertes de données en cas de problèmes extérieurs (exemples : panne réseau, indisponibilité des serveurs…).

Pour mieux garantir la communication, il est donc nécessaire de disposer d’une brique garantissant la continuité des échanges malgré les interruptions. La persistance de la donnée est une nécessité pour décharger les collaborateurs d’opérations manuelles et d’oublis éventuels.

4. La localisation des données

Si la localisation des données est relativement simple dans le cas des infrastructures on-premise, les SI hybrides et non structurés rendent la tâche plus complexe.

L’évolution des applications et des hébergements créent parfois des changements de chemin pour la donnée, ou d’autres problématiques d’accès qui freinent son utilisation.

Dans un SI non urbanisé où la communication inter-applicative est limitée, l’architecture entière subit ces changements inattendus : les modifications doivent alors être faites individuellement et manuellement, avec les risques d’erreur et les lenteurs que cela implique. Une communication unifiée permet quant à elle de notifier automatiquement tout changement dès qu’il survient.

5. Le manque de lisibilité en cas d’erreur  

Multiplier les applications sur site et dans le Cloud sans structurer l’ensemble contribue à brouiller la compréhension du SI : en cas d’erreur, il devient difficile de localiser la source. Ces sources sont d’ailleurs d’autant plus nombreuses que la communication entre applications est peu structurée.

De cette rapidité de résolution des erreurs dépend pourtant la performance de l’entreprise. Avec une data omniprésente dans les processus, tous les métiers sont concernés par le besoin de lisibilité du SI. En cartographiant les flux et en mettant en place une supervision globale, il est plus simple d’identifier les failles dans leur circulation.

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

Comment l’urbanisation du système d’information hybride répond-elle efficacement à ces défis ?

L’urbanisation du système d’information contribue à rendre l’architecture du SI lisible et à la rationaliser. Grâce à l’organisation de son système d’information, l’entreprise établit une cartographie de ses flux et de ses briques applicatives et s’adapte mieux aux environnements hybrides.

A cette bonne connaissance du SI s’ajoute une communication inter-applicative fluide entre les logiciels déjà en place : un avantage de taille pour des petites et moyennes entreprises qui n’ont pas la possibilité de remplacer leurs applications les plus anciennes.

L’urbanisation crée une chaîne d’information entre les applications et permet donc d’agir efficacement, que le SI soit opérationnel ou pour faire face à toutes les défaillances possibles.

Elle se met en œuvre selon quatre axes principaux :

Communication inter-applicative

La communication point-à-point est éliminée : ce sont les applications qui viennent collecter l’information dont elles ont besoin dans un bus données central. La data circule plus facilement grâce aux demi-connecteurs et aux formats communs.

Cycle de vie des applications

Les sources d’erreur liées aux évolutions applicatives et leurs conséquences peuvent être analysées.
Toute évolution est communiquée à l’ensemble du système, qui peut s’adapter rapidement plutôt que d’être à l’arrêt.

Persistance des messages

L’urbanisation peut s’accompagner d’une couche middleware dédiée à la continuité d’information. En cas d’interruption de la communication, l’échange est « mis en pause », programmé pour reprendre dès que possible.

Supervision des flux

L’urbanisation permet une prise d’action plus rapide, même en cas d’erreur. Grâce à une vue plus globale du SI, les erreurs peuvent être classifiées et de vrais diagnostics posés pour des correctifs durables.

Ces apports de l’urbanisation du SI répondent à la fois aux besoins des entreprises ayant opté pour le Cloud hybride, mais aussi à ceux des utilisateurs de multi-Cloud. Ce dernier apporte en effet une part de complexité supplémentaire, avec d’éventuels problèmes d’interopérabilité et un besoin de supervision plus important.

Comment Citelum a-t-il urbanisé son SI autour d’une Architecture Orientée Service (SOA) ?

Les solutions de Blueway pour accompagner l’urbanisation des architectures Cloud hybride

L’objectif de Blueway est d’accompagner les entreprises dans l’organisation de leur gouvernance de flux de données, mais aussi dans l’optimisation de leurs processus. Ces deux enjeux sont intimement liés : les besoins des processus guident en permanence le parcours de la donnée.

Avec des métiers plus impliqués que jamais dans la manière dont circule et s’utilise la donnée, la réflexion sur la modélisation des processus est indispensable : elle permet de prendre en compte toutes les interactions de données, d’anticiper les besoins, mais aussi d’impliquer les intervenants métiers, premiers utilisateurs de la donnée.

Dans ce but, la plateforme Blueway dédiée à l’urbanisation du système d’information associe des solutions ESB (ou bus applicatif) et BPM, pour instaurer une véritable logique de flux.

Les intervenants deviennent ainsi des acteurs majeurs de l’urbanisation du SI. Le BPM associé à l’ESB leur donne la capacité d’agir sur les échanges dans le cadre de l’urbanisation (alertes e-mails, IHM dédiée, définition des rôles et responsabilités pour les séquences d’évènements…) afin d’améliorer le traitement de la donnée tout au long de son cycle de vie.

Outre l’urbanisation et la supervision des échanges, cette démarche permet également d’obtenir une meilleure évolutivité du SI. L’architecture est plus flexible et permet d’envisager des scénarios complexes comme dans le cas des structures hybrides. Plus agiles, les petites et moyennes entreprises peuvent ainsi préparer les projets à venir en tirant le meilleur parti de leurs outils sur site et dans le Cloud.

Vous souhaitez échanger sur les enjeux d’urbanisation du SI ? Prenez rendez-vous avec l’un de nos experts !

Au plaisir de discuter avec vous !

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

La quantité de données collectées par les entreprises ne fait que croître, et avec elle, le besoin de les traiter. Les professionnels de la donnée prennent donc une importance inédite, une tendance d’autant plus marquée dans un contexte de digitalisation rapide. Désireuses de mieux exploiter leurs données, les entreprises font de plus en plus appel à des profils spécialisés. Leur utilité est réelle : du Data Architect au Data Analyst, chaque métier de la donnée possède ses propres enjeux et spécificités. En charge de la documentation de la donnée, le Data Steward est quant à lui au cœur de cette démarche de valorisation de la data : une position qui en fait un maillon incontournable du traitement des données !

Qui est le Data Steward ?

Le rôle et les missions du Data Steward

Alors que les spécialistes de terrain tels que le Data Owner garantissent la qualité finale des données, le Data Steward, quant à lui, œuvre à leur documentation. Sa mission : assurer le suivi et la collecte d’information au contact des collaborateurs. Son objectif final : faciliter l’accès aux données par les métiers et ce faisant, maximiser l’utilisation des données collectées par l’entreprise.

Le rôle du Data Steward est aussi pragmatique que pédagogique. Celui-ci doit posséder une connaissance approfondie des processus et une vue globale des flux de données, mais aussi être capable de sensibiliser les équipes à l’intérêt de sa mission.

Capable de réunir les informations métier, le Data Steward facilite la compréhension de ces flux par les collaborateurs métiers, et donc la valorisation des données dans l’entreprise.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Concrètement, le Data Steward :

  • Centralise des informations sur les données : il collecte de précieuses indications sur l’usage des données, leur potentielle obsolescence, les modifications ou erreurs qu’elles comportent.
  • Contrôle la qualité de la donnée : en parallèle des procédures de vérification courantes, il met en place des contrôles systématiques et des mesures correctives si nécessaire.
  • Renseigne les métadonnées : les métadonnées décrivent les jeux de données, sous forme d’objet ou de label. Une fois renseignées, elles facilitent l’accès à l’information par les métiers.
  • Propose des formats de documentation technique et métier adaptés : son objectif est de faciliter la consultation par tous et la maintenance des données.
  • Protège les données : il définit un ensemble de protocoles d’accès aux données, mais aussi de diffusion, d’archivage et de suppression. Il garantit à la fois l’inviolabilité et la confidentialité de la data.

Les enjeux de l’intervention d’un Data Steward pour l’entreprise et ses données

Côté entreprise, faire appel à un spécialiste de la donnée est avant tout une manière d’orchestrer sa data governance. La structuration devient de plus en plus incontournable alors que la masse des informations collectées constitue désormais de véritables « lacs de données ». Cette profusion de data impose un tri éclairé et rapide. Le Data Steward apporte de l’ordre dans des données difficiles à maîtriser — et souvent peu exploitées —, offrant ainsi un avantage concurrentiel à son entreprise.

La data quality est elle aussi un enjeu majeur. La rapidité des flux et le nombre exponentiel d’applications crée une part d’erreurs et de redondances non négligeable. Les secteurs fortement réglementés ont impérativement besoin de garantir la conformité de leurs informations. Etiqueter ses jeux de données comme le fait le Data Steward, c’est s’assurer de leur qualité et de leur caractère actuel.

Le Data Steward contribue également à valoriser les données grâce à un étiquetage cohérent avec les codes métiers. L’ajout de métadonnées encourage l’utilisation des données collectées et facilite leur consultation.

Autre défi central dans les stratégies data actuelles : l’unification des données, qui contribue à décloisonner les services et favorise la collaboration. L’utilisation de formats de documents pratiques et actuels crée une passerelle entre métiers, accélérant le traitement de l’information.

L’unification crée enfin des effets de synergie : l’utilisation instantanée des données par les métiers crée une véritable collaboration en temps réel, éliminant les fastidieux aller-retours d’information.

Interview d’expert :
Deux retours d’expérience complémentaires sur la mise en place de solutions MDM (Master Data Management)

Méthodes et solutions au service du Data Steward

Pour mener à bien sa mission de référencement des jeux de données, le Data Steward a plusieurs outils clés à sa disposition :

La plateforme de Data Stewardship

Outil privilégié du Data Steward, cette plateforme qui prend la forme d’un tableau de bord facilite l’orchestration des projets de données.

La solution de Data Stewardship permet au Data Steward de coordonner les actions, certifier les données ou encore suivre l’avancée des tâches au sein de chaque projet. L’aspect très collaboratif des outils de Data Stewardship permet aux responsables métiers de s’impliquer dans l’enrichissement des données de référence, sous la direction du Data Steward.

Pour ce dernier, cette plateforme est un accélérateur pour une documentation fiable et participative des données. La solution de Data Stewardship apporte également une part d’automatisation très utile — règles de validation, parfois même collecte de connaissances par l’IA… Facilitant la gestion quotidienne, elle contribue à la création d’un référentiel de données complet et sans erreur.

La solution de Master Data Management

Grâce au MDM, solution de gestion des données de référence de l’entreprise, le Data Steward assure la consolidation des données dans un référentiel unique. Les données peuvent ainsi être unifiées à date malgré la disparité des applications sources.

Le Master Data Management garantit :

  • La consolidation des données des applications : l’information collectée auprès d’applications métiers hétérogènes est centralisée et optimisée au sein de l’outil
  • Le contrôle des données : la définition de règles de rédaction et de gestion unifie la consultation
  • La traçabilité : le suivi des modifications d’un processus à l’autre garantit l’intégrité des projets
  • La qualité des données : la caractérisation des données via un indice de confiance et la consolidation se font dans le respect des normes en vigueur 
  • Une vision prédictive : cartographie applicative, relations entre les données et analyse de scénarios facilitent la compréhension du cycle de vie de la data

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Solution de gestion des métadonnées et data catalog

Les métadonnées sont en essor constant, et pour cause : que les données soient techniques, métiers ou opérationnelles, la mise en place du metadata management permet de tirer plus de valeur de ses jeux de données.

Les outils de gestion des métadonnées sont utiles à la fois aux collaborateurs métiers et aux Data Stewards. Ces derniers les emploient pour mieux administrer la donnée : gestion des accès et du partage, intégration, analyse et maintenance sont ainsi plus simples à contrôler.

Le metadata management permet au Data Steward de garantir davantage de consistance des données. Des terminologies plus durables garantissent une meilleure durée de vie de la data, et donc une performance accrue des services.

Les outils de gestion des métadonnées fournissent également des reportings et analyses sur la base d’un catalogue de données.

Ce data catalog constitue une base de données intelligente, accessible par les parties prenantes pour rechercher et éventuellement partager les jeux de données. De sa qualité et de son exhaustivité dépend en grande partie la performance du Data Steward.

Les métiers de la data et les nombreuses dimensions de la donnée

La donnée est aujourd’hui un élément central, à la fois sur le terrain et dans un usage plus stratégique. Plusieurs autres rôles clés permettent de la traiter sous les angles technique et métier. On citera notamment le Data Architect, responsable de l’infrastructure de données, le Data Owner, au rôle de cartographie et de protection des données, le Data Analyst pour l’extraction et l’interprétation stratégique, ou encore le Data Scientist, capable d’élaborer des modèles prédictifs sur la base de la data extraite.

Les cas d’usage des données sont eux aussi très nombreux et appellent des solutions logicielles diverses :

Le Data Steward utilise le MDM

Centralisation et unification MDM
Le référentiel de données unique facilite la consultation et la mise en œuvre des projets de données

ESB : un outil pour le Data Steward

Transport inter-applicatif ESB
L’Enterprise Service Bus contribue à l’urbanisation des flux de données entre des applications de toutes générations

Quels logiciels pour le Data Steward ?

Exploitation par les processus BPM
La donnée est précieuse pour les processus métiers, qui doivent adhérer au SI et s’appuyer sur des données orientées processus.

Les outils du data steward

Ouverture aux sociétés partenaires API Management
La multiplication des échanges avec des sociétés tierces impose une administration fine des API et une maîtrise de la consommation de données.

On le voit, la donnée est multifacette : sa collecte et sa gestion doivent donc prendre en compte l’ensemble de ses dimensions et usages, tout au long de son cycle de vie.

Le Data Steward s’inscrit dans une stratégie très riche de traitement de la data, mais il doit en être de même pour les applications d’entreprise. C’est uniquement en prenant du recul sur ses données qu’une entreprise pourra pleinement les valoriser.

Chez Blueway nous sommes convaincus que le succès de la stratégie data des entreprises repose sur une vision partagée et globale des données et des processus. C’est pour cela que nous proposons une plateforme qui réunifie toutes les dimensions de l’échange de données : MDM, BPM, ESB et APIM.

Vous souhaitez échanger avec l’un de nos experts sur la Data Steward ou plus largement sur le gouvernance des données ?

Au plaisir de discuter !

SI Legacy ou Système d’Information Legacy

Introduction : les nouveaux enjeux soulevés par le SI legacy

En quelques décennies seulement, les systèmes d’information ont subi une profonde transformation. Avec le déploiement constant de nouvelles solutions digitales dans les entreprises, de nombreux outils deviennent obsolètes : le « système hérité », ou SI legacy, devient une vraie question de fond.

En raison de l’accélération des innovations technologiques durant les vingt dernières années, l’évolution des parcs applicatifs a été importante et difficile à maîtriser. Les applications des Systèmes d’Information ont bien souvent été développées de manière empirique, sans faire l’objet d’une véritable stratégie à long terme. Sur ce parc applicatif vieillissant repose aujourd’hui une partie des processus clés des entreprises.

En parallèle, les défis se multiplient : les fusions et acquisitions imposent d’unifier les SI et les processus, et la communication accrue avec les partenaires commerciaux nécessite de rationaliser les échanges. La mobilité et l’utilisation de solutions SaaS transforment rapidement le visage du SI moderne ! Sans compter que le rythme des évolutions technologiques et la diversification des infrastructures compliquent la tâche de migration des anciennes applications.

A ce besoin d’évolutivité s’ajoute une autre composante essentielle : le changement de gouvernance liée au SI sous l’impulsion des métiers. Ceux-ci sont plus impliqués que jamais dans les décisions stratégiques en matière de logiciels. Les solutions d’entreprise doivent répondre avec précision aux besoins métiers : au défi technique de transmission de l’information s’ajoute donc le besoin de résoudre les problématiques de terrain. L’évolution des briques applicatives, qu’elles concernent les nouvelles solutions ou le SI legacy, doit se faire avec un impact minimum sur la performance des équipes, et donc sur les processus en place.

Face à ces enjeux de performance, les entreprises doivent aujourd’hui réfléchir à la mise à niveau de leurs anciennes applications, mais aussi à la manière de structurer l’ensemble de leur SI pour mieux anticiper l’avenir.

Interview du DSI : comment accompagner la transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

Les impacts du SI Legacy sur l’organisation

Une grande partie des entreprises a fait évoluer son SI, avec notamment l’utilisation de solutions SaaS. Cette nouvelle couche applicative, venue s’ajouter aux applications legacy, bénéficie rarement d’une vraie synergie avec les anciennes applications. De ce manque d’urbanisation découlent de réelles problématiques pour les responsables métiers :

  • Complexité de l’ajout d’applications : le déploiement de nouvelles applications est complexifié par l’existence d’un parc historique non unifié. La communication point-à-point, très répandue dans les Systèmes d’Information, crée de nombreux flux uniques, difficiles à cartographier et maîtriser.
  • Information incomplète : les flux d’information désordonnés ne peuvent être traités correctement. L’information parvenant aux processus métiers est donc souvent incomplète ou mal structurée et ne peut être pleinement exploitée.
  • Lourdeurs de gestion : la gestion d’un parc applicatif disparate entraîne de nombreuses tâches à faible valeur ajoutée, qui mobilisent les équipes. L’unification de l’architecture SI peut, au contraire, donner lieu à des automatisations et faire gagner les collaborateurs en productivité.
  • Coûts de maintenance : Le SI Legacy implique souvent de maintenir plus de systèmes, lesquels sont parfois redondants. Il en résulte des coûts et des efforts inutiles, qui nuisent à la performance.
  • Perte de vision globale des processus : les processus métiers s’intègrent dans une stratégie globale, et il en va de même de l’information. Les flux nécessitent une véritable architecture pour assurer une continuité à chaque étape des projets.

L’évolution des processus et des logiciels creusent en permanence le fossé entre anciennes et nouvelles applications. Il est judicieux de réfléchir au plus tôt à une stratégie d’urbanisation et de rationalisation. Déployer les bonnes démarches et solutions permet de répondre aux exigences techniques et de répondre plus rapidement aux besoins métiers.

Quelle approche pour urbaniser son SI legacy ?

Dans un contexte où l’agilité est primordiale, il est impératif de mettre en place une démarche d’urbanisation de son Système d’information.

A la base de cette structuration se trouvent plusieurs principes clés :

Décloisonner l’information

Favoriser le décloisonnement de l’information

Lorsque les applications vieillissantes se multiplient, il devient essentiel d’instaurer une communication systématique et maîtrisée entre elles. L’urbanisation vise à éviter tout enfermement de l’information, et donc toute perte de performance.

Réaliser une cartographie des processus

Cartographier
ses processus d’entreprise

Les processus métiers ne doivent pas être contraints par les applications. Sur la base des besoins réels, IT et métiers modélisent ensemble les process au service d’un SI plus performant.

Architecture d’intégration

Organiser son architecture d’intégration

Une bonne communication entre applications doit s’associer à une architecture plus globale et évolutive. Cette prise de recul permet de maîtriser son SI et de maintenir un niveau de dépendance limité entre applications.

Ces principes permettent d’unifier la communication inter-applicative, et apportent plus de souplesse d’action, même en cas de profond changement de structure.

Répondre aux problématiques du SI legacy par l’urbanisation

L’urbanisation du SI apporte une réponse pertinente aux enjeux posés par le SI legacy, en facilitant :

  • Le décommissionnement des applications : la suppression de composants obsolètes permet de ne conserver que les éléments méritant d’être maintenus. Ce décommissionnement réduit les risques, les coûts, et permet de rationaliser le Système d’Information.
  • La réduction des dépendances : la circulation des données n’est plus contrainte par les anciennes applications et les difficultés liées à leur maintien. Les échanges normalisés deviennent exploitables dans tout l’écosystème de l’entreprise.
  • L’ajout plus simple de briques applicatives : dans un environnement unifié avec des flux d’information clairs, les briques logicielles s’insèrent et se retirent plus simplement, avec un impact maîtrisé sur l’action des métiers.
  • L’identification des nœuds applicatifs : connaître les points de contention par lesquels passent les flux de données, c’est mieux anticiper l’organisation de ces flux et les risques.
  • La prise de recul sur l’organisation des flux : la circulation des données tout au long de leur cycle de vie a un impact fort sur la mise en œuvre de la stratégie d’entreprise. L’urbanisation favorise également l’amélioration continue des flux et des processus.

Comment Citelum a-t-il urbanisé son SI autour d’une Architecture SOA ?

Des solutions logicielles concrètes au service de l’urbanisation

Au cœur de cette urbanisation se trouvent deux solutions essentielles, qui permettent de conjuguer gestion des flux et optimisation des processus :

L’ESB (Enterprise Service Bus)

L’ESB

La technologie de bus applicatif assure la circulation de l’information entre applications, sans qu’il soit nécessaire de développer une interface individuelle pour chacune d’entre elles. Chaque élément du SI peut ainsi puiser l’information nécessaire dans cet « Enterprise Service Bus ».

Cette solution garantit ainsi des échanges simplifiés et structurés entre applications récentes et legacy. Elle se met également au service de la stabilité de l’infrastructure : les briques applicatives peuvent être ajoutées ou modifiées tout en conservant des flux d’information constants et fiables.

Le bus applicatif permet également de gérer des enjeux courants pour les entreprises : distribution de volumes de données importants, enrichissement du référentiel de données, échanges synchrones et asynchrones…

Le BPM (Business Process Management)

Le BPM

Cette urbanisation des échanges n’est rien sans une parfaite adéquation entre flux de données et exigences métiers. Les processus, qui structurent l’action de l’entreprise, font circuler et vivre les données, mais également s’enrichissent de ces données collectées. C’est là qu’intervient le Business Process Management, solution qui permet de digitaliser les processus métier, mais aussi de renforcer leur agilité et leur adhérence au SI. Automatisation des tâches à plus faible valeur ajoutée, planification, suivi et règles de gestion : grâce à l’interopérabilité entre ESB et BPM, les processus s’appuient sur des informations toujours fiables et disponibles. Ils sont aussi adhérents au Système d’Information !

Mettez aussi à profit les autres dimensions de l’échange de données

Pour offrir un niveau de performance optimal, en interne mais aussi à destination des partenaires commerciaux, l’utilisation de ces solutions doit s’inscrire dans une logique d’Architecture Orientée Services (SOA).

La structuration des échanges contribue aussi à créer un écosystème cohérent avec le fonctionnement interne, et à mieux adapter l’offre de services aux partenaires.

Des solutions telles que l’API Management s’inscrivent dans cette démarche et assurent de gouverner l’exposition de ses API. Elles garantissent la gestion fine des consommations de données, et la gouvernance des API elles-mêmes, de leur déploiement à leur retrait. De cette manière, les échanges entre partenaires sont facilités, scalables et structurés, et les données sécurisées tout au long de leur cycle de vie.

Chez Blueway, nous sommes convaincus que vos enjeux métiers et l’évolution de votre Système d’Information ne doivent pas être contraintes par le SI Legacy et les réponses techniques ! C’est pourquoi nous proposons une plateforme qui unifie toutes les dimensions de l’échange d’information : ESB, BPM, MDM et APIM.

Vous souhaitez en savoir plus sur le Système d’Information legacy ? Échangez avec l’un de nos experts !

Au plaisir de discuter avec vous !

Environnement SAP et système d’information agile

De très nombreuses entreprises, quel que soit leur secteur d’activité (industrie, services, grande distribution, ingénierie, etc.), disposent d’une architecture informatique qui repose sur SAP avec de nombreuses applications gravitant autour. Cet ensemble hétérogène de solutions doit aussi interagir avec l’écosystème de l’entreprise : partenaires, fournisseurs, sous-traitants, clients…

Si SAP dispose d’un périmètre fonctionnel très vaste, il est bien connu que c’est aussi une énorme usine applicative, complexe voire même lourde d’utilisation, avec entre autres :

  • Un coût par licence non négligeable et une majorité d’utilisateurs qui ne mettent à profit qu’une partie restreinte des fonctionnalités,
  • Une prise en main souvent compliquée surtout pour les utilisateurs occasionnels qui ont simplement besoin de récupérer une information ou de saisir une commande.
  • Une mise en œuvre rigide et une évolution souvent complexe. C’est aux utilisateurs de s’adapter au logiciel et non l’inverse, ce qui engendre aussi des difficultés quotidiennes !

Effectuer des gestions simples est au final souvent compliqué et tous les utilisateurs chez nos clients équipés SAP s’accordent sur le fait qu’ils souhaiteraient retrouver davantage d’agilité… Mais comment faire concrètement ?

Interview du DSI : comment accompagner la transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

Prendre du recul sur le rôle de l’ERP dans l’organisation des flux d’informations

Ces retours du terrain font que si l’environnement SAP est perçu comme fiable et robuste, il est aussi associé à des qualificatifs moins positifs : peu convivial, difficile à prendre en main, lourd… Derrière ces adjectifs, le constat est sans appel : centrer ses flux autour de SAP avec des interfaces de données point à point crée un carcan informatique qu’il est difficile de faire évoluer et qui nuit donc à l’agilité de l’entreprise :

  • Une modification d’un des blocs applicatifs impacte toute la chaine d’information.
  • Sans vision globale du processus métier, c’est en fin de cycle qu’on s’aperçoit qu’il manque des éléments et les risques d’erreurs sont plus importants.
  • Dans le cadre d’une montée de version SAP, c’est alors tout le système d’information et les flux inter-applications qui sont remis en cause. Il faut souvent redévelopper les interfaces et redéfinir les flux entre SAP et les autres applicatifs.
  • Repenser ces processus transversaux pour les optimiser impose de modifier de multiples interfaces, et c’est souvent un axe d’amélioration laissé de côté

Ces défis ne sont pas liés au fonctionnel étendu de SAP qui apporte une vraie valeur ajoutée aux entreprises utilisatrices qui ne pourraient plus s’en passer. C’est le positionnement de SAP dans la gouvernance des données et des flux qui est en fait en cause. Tout comme les utilisateurs doivent se concentrer sur leur métier grâce à l’automatisation des flux d’informations, SAP doit se concentrer sur ce qu’il sait bien faire. Structurer et gérer les flux inter-applicatifs n’en fait pas partie !

La méthode : rationaliser les flux d’informations autour de SAP pour rendre le SI plus agile

Les échanges de données qui transitent autour de SAP sont multiples et extrêmement hétérogènes : commandes, systèmes de gestion d’entrepôt, données de facturation, informations liées à la paye, fichiers bancaires, comparatifs de prix, etc. L’agilité du système d’information repose sur une urbanisation des transferts de données pour les rationaliser et les rendre plus évolutifs et souples.

Face à un environnement IT complexe, il faut en effet faciliter la manipulation des données quel que soit l’application ou le flux d’informations concerné. Pour cela, les processus métiers transversaux et agiles ne peuvent pas être dépendants d’une application ou d’un format de données. Cette indépendance est le seul moyen de rompre la lourdeur d’évolution du SI.

L’architecture globale doit ainsi être au service d’une vision transversale et indépendante des applications. C’est le processus métier qui définit la structure des échanges. Cette architecture doit permettre de gérer, organiser et superviser l’ensemble des échanges inter-applicatifs en particulier avec et vers SAP.

Cette architecture, doit aussi transformer et transporter la donnée sous un format neutre pour permettre de l’intégrer quelle que soit l’application cible : aussi bien SAP que n’importe quelle autre solution du SI interne ou de l’écosystème IT. C’est aussi le meilleur moyen de pouvoir interagir avec les systèmes d’informations des partenaires, clients, fournisseurs…, en effaçant le problème de format et en gagnant en agilité opérationnelle.

Pour en savoir plus sur cette interopérabilité vitale entre processus et données et profiter de conseils concrets pour retrouver davantage d’agilité autour de votre environnement SAP, n’hésitez pas à télécharger notre Livre Blanc :

L’interopérabilité entre processus et données : le cœur d’une entreprise agile

Vers un environnement SAP agile : la solution pratique et les bénéfices

C’est donc une vraie trousse à outils qui est nécessaire et elle se matérialise sous la forme d’une plateforme d’intégration associant gestion des processus (BPM), bus applicatif ESB et étant ouverte sur l’harmonisation des données (MDM). Cette plateforme permettra de maîtriser, d’optimiser, de consolider et de piloter tous les flux dans leur globalité. Contrairement à l’environnement SAP, la plateforme d’intégration des données peut être externe aux différentes briques applicatives du SI.

Cette approche offre ainsi une réversibilité pour chaque application et permet surtout de retrouver davantage d’agilité au niveau du système d’information pour :

  • Faciliter l’intégration de nouvelles applications dans le SI,
  • Remplacer des briques fonctionnelles sans impact sur les processus,
  • Optimiser les processus transversaux qui font interagir plusieurs briques applicatives,
  • Sécuriser et automatiser les échanges d’informations,
  • Mettre en place une tour de contrôle offrant une vision consolidée de tous les échanges et remontant les alertes,
  • Limiter la consommation de licences SAP à ceux qui en ont vraiment l’usage fonctionnel.

Cette agilité retrouvée se ressent rapidement au niveau de l’entreprise : les responsables n’ont plus à se poser la question de comment procéder pour faire interagir telle application ou telle technologie avec telle autre, les métiers peuvent piloter en autonomie leurs échanges de données… Avec cette démarche, c’est tout simplement les enjeux métiers qui définissent les processus transversaux et non les contraintes IT et de connectivité. Au final, cette agilité et cette fiabilité des échanges bénéficient directement à l’efficacité opérationnelle de l’entreprise.

Bien sûr, les entreprises, en particulier les PME/PMI, préfèrent généralement optimiser en continu leur système d’information de manière « chirurgicale » pour ne pas remettre en cause l’ensemble des flux d’informations. Cependant, migrer une version de SAP, remettre en cause des briques logicielles importantes ou intégrer une nouvelle activité sont de très bonnes occasions de revoir en profondeur vos processus et l’urbanisation de votre SI. Une opportunité à ne pas rater si vous êtes dans ce cas !

Pour profiter de retours d’expériences pratiques de sociétés qui ont retrouvé leur agilité, accédez à nos témoignages clients ou échangez avec nos experts !

Vous souhaitez en savoir sur le sujet ? Prenez rendez-vous dès maintenant avec l’un de nos experts !

Echangeons !

EAI : Outils ETL vs ESB

ETL, ESB, EAI, EDI, SOA, APIM… il existe de multiples acronymes liés à la gestion des flux de données et il est facile de s’y perdre. Certains acronymes ont des périmètres similaires, d’autres complémentaires, d’autres encore se recouvrent partiellement.

Dans cette interview, Edouard Cante, Directeur des Opérations de Blueway, nous partage sa vision et ses convictions sur la distinction ETL vs ESB, et ses conséquences pour les entreprises. Face aux besoins métiers, est-ce vraiment le bon débat ?

Dans un précédent article, nous avions conclu que l’ESB et la gestion des API étaient deux faces d’une même pièce. Est-ce la même chose pour l’ESB et l’ETL ?

Edouard Cante : Non, leurs périmètres se recouvrent en partie : ils se positionnent tous les deux sur le transport et la transformation de la donnée au sein du système d’information. Par nature, on pourrait considérer qu’il y a un choix à faire selon les types de flux. Ce n’était pas le cas entre ESB et APIM qui sont complémentaires.

Les différences historiques reposent surtout sur la dimension architecturelle. Pour des personnes qui ne sont pas expertes du data management, percevoir les spécificités de l’ETL et de l’ESB n’est pas aisée. A cela s’ajoute que les contours ont évolué ces dernières années.

De manière historique et un peu caricaturale, l’ETL va être performant pour gérer de très fortes volumétries avec des enjeux de performance, mais pour un nombre limité d’échanges. Il va traiter la donnée de manière ensembliste. Par exemple, si on souhaite obtenir la somme du chiffre d’affaires ventilé par client, l’ETL va agréger toutes les lignes, et appliquer un traitement sur la totalité. Cette approche ensembliste est en particulier adaptée pour la Business Intelligence et le Data Warehousing.

Interview du DSI : comment accompagner la transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

A l’opposé, l’ESB va être efficace pour traiter un nombre et une fréquence élevés d’échanges avec une volumétrie limitée de données associée à une dimension algorithmique des opérations. Il va avoir toute sa place pour décloisonner l’information et accompagner une Architectures Orientée Services en se positionnant comme un bus d’échange sécurisé et transversal à tout le SI.

 Si on résume à l’extrême, l’ETL, c’est l’outil pour construire son data Warehouse depuis son ERP et son CRM. L’ESB, c’est pour la personne qui souhaite exposer au travers de demi-interfaces les devis, commandes et clients depuis son CRM par exemple et permettre aux autres applications d’aller chercher ces informations en se connectant au bus applicatif de données.

Edouard CANTE

Cependant, ma conviction, c’est que ces différences historiques frôlent maintenant la caricature ! Qui peut dire aujourd’hui qu’il achète un outil ETL uniquement pour de la BI ?

Pourquoi cette conviction que cette distinction entre outils ESB et ETL n’est plus adaptée ?

E.C : Une autre différence souvent mise en avant est que l’ETL est une technologie Pull, à la demande, alors que l’ESB est une technologie push, à la production des messages. Mais, côté client, peut-on vraiment ne faire que du pull ou que du push ? Quand une entreprise a mis un place un ETL, et doit faire du push, cela ne peut pas reposer sur chaque application ! Cela demande des développements spécifiques et fait ressortir le problème au cœur de cette distinction.

Si ce cloisonnement entre ESB et ETL avait lieu d’être il y a 10 ans, ma conviction, c’est qu’il n’est plus d’actualité du point de vue métier. Des concepts différents ne doivent pas sous-entendre des solutions différentes ! Demander au DSI de choisir entre deux outils différents selon ce qu’il veut exposer ou faire interagir, c’est prendre le problème du mauvais côté. On ne contraint pas le besoin métier par les enjeux techniques !

Pour la majorité des entreprises, il n’y a aucun ROI à s’équiper d’un côté d’un pur ETL et de l’autre d’un pur ESB.

Edouard CANTE

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

Comment le marché a évolué depuis l’apparition de ces concepts d’ETL et d’ESB ?

E.C : A l’origine, il y avait de vraies différences technologiques. Les marchés se sont scindés et ont évolué. Certains éditeurs d’ETL ont marché sur les plates-bandes des éditeurs d’ESB et réciproquement pour gagner des parts de marché. En même temps, certains discours marketing ont cloisonné les besoins en fonction des technologies pour affirmer leur positionnement. Des éditeurs d’ESB ont aussi cherché à se définir comme puristes.

Le débat a été principalement mené sur le front de la technologie et non pas vis-à-vis des besoins finaux. C’est une erreur !

Edouard CANTE

En conséquence, les frontières sont devenues floues du point de vue client et cela a mené à des positions caricaturales. Les interlocuteurs ont généralement mal compris ce qu’était un ESB et son potentiel. On résumait parfois l’ESB au déplacement de données en négligeant son rôle pour organiser toute la circulation de l’information. Résultat : de nombreux projets ont échoué à cause de ces approches dogmatiques !

J’ai l’exemple d’un retailer où le projet a démarré par une cartographie théorique des flux avec de superbes schémas pour défendre une approche 100% ESB. Finalement, quand le projet a été lancé, cette position extrême s’est heurtée à la réalité : certaines applications ne pouvaient pas faire du temps réel. Le projet a été un échec complet.

Si opposer ETL et ESB est une erreur, quel est le vrai enjeu ?

E.C : Le vrai enjeu, c’est d’inverser le point de vue. C’est à cause de ces questions marketing « ESB ou ETL » qu’on arrive à ces échecs ! Cette dichotomie n’a plus de sens dans la majorité des cas.

Le DSI se retrouve à devoir choisir entre deux outils alors que son besoin a lui est commun : dans la majorité des cas, il souhaite décloisonner et faire circuler l’information entre les applications de son SI, réaliser un peu de BI, et centraliser les informations dans un MDM. Faire correspondre chaque concept à une solution différente, l’oblige à séparer son besoin métier sans que cela ait de bénéfice pour lui.

Il faut faire le pont entre les deux. La solution doit répondre au besoin métier, et non à un dogme technologique !

Edouard CANTE

Ce défi se retrouve même au sein des utilisateurs qui ont une compétence sur des outils plus que sur les concepts. Les utilisateurs prennent alors moins de recul sur la gestion des flux en tant quel tel. C’est en comprenant les concepts que les utilisateurs pourront monter en compétences, et adopter plus facilement des outils différents.

L’interopérabilité entre processus et données : le cœur d’une entreprise agile

Si la question n’est pas ETL ou ESB, quelles sont les questions à se poser pour mener à bien son projet d’urbanisation ?

E.C : Il faut déjà commencer par accepter et prendre en compte la réalité ! S’il est important de cartographier ses processus et de prendre du recul, il ne faut pas se contenter d’une vision théorique : « tout sera SOA » « tout communiquera via des API ». La vision du futur, c‘est bien, mais dans la réalité, il faut que les applications puissent communiquer dès maintenant !

C’est aux outils de converger pour s’adapter au métier et non l’inverse : l’objectif est d’unifier la collaboration dans l’organisation.

La guerre ETL ESB n’a plus de sens ! Pour répondre aux besoins des DSI, ils ne doivent plus être dissociés. La distinction porte maintenant sur la transformation et le transport des données d’un côté, et de l’autre sur son exploitation.

Edouard CANTE

Si une différence doit exister, je la positionnerai à un autre niveau. On peut différencier les solutions de data transformation qui assurent une circulation sécurisée et mettent à disposition les données pour des outils de data préparation très fonctionnels, dédiés aux métiers : data scientist, BI…

Les métiers ont ainsi accès à des outils très fonctionnels, qui leur sont dédiés, et le Data Manager conserve son rôle central pour garantir la qualité, la transformation et la mise à disposition des données. Ce sont ces outils de data preparation qui font évoluer le marché ! L’autonomie des métiers prend tout son sens, sans pour autant que cela implique qu’ils agissent sur la circulation de l’information. Celle-ci doit en effet répondre à des enjeux critiques de performance et de légalité.

La circulation des informations doit donc être appréhendée dans sa globalité, quel que soit le « mode de transport » pour répondre aux enjeux métier. La vraie différence au niveau des outils repose maintenant entre la data transformation et la data préparation !

Edouard CANTE

Je suis donc convaincu qu’il faut à la fois répondre aux standards actuels, mais aussi respecter la fameuse Legacy du Système d’Information. Les clients qui utilisent les solutions ETL/ESB/EAI doivent faire avec cet actif, ils n’ont pas le choix ! En tant qu’éditeur, c’est donc aussi notre rôle. Nous devons être la boîte à outils qui permette aux clients de faire circuler l’information.

Chez Blueway, nous n’avons jamais cultivé la différence ESB vs ETL. Notre souhait et de pouvoir répondre globalement à l’enjeu d’urbanisation du SI avec une plateforme modulaire qui réunifie les concepts autour des enjeux métiers et humains. Il existe des cas extrêmes où un super outil ETL serait nécessaire, mais on le rencontre très peu dans la réalité !

Vous souhaitez échanger directement avec Edouard Cante ? Prenez rendez-vous dès maintenant !

Echangeons !

API Mangement en infographie

De la théorie…

L’API Management renforce les chaines de valeur
avec vos partenaires, clients et fournisseurs

… aux situations concrètes

Constat 1

« De plus en plus de mes clients et partenaires demandent à accéder à mes services et à mes données.
C’est un frein à mon développement ! »

L’industrialisation du déploiement des API favorise la scalabilité de votre business model et améliore votre efficacité opérationnelle.

APIM

Constat 2

« Entre l’IIoT, les services du SI… je me perds dans la profusion d’API et d’interfaces point à point »

Séparer l’orchestration des services internes de l’exposition vers l’extérieur au travers une architecture de type
Gateway simplifie la gouvernance de vos API.

APIM

Constat 3

« Je fais face à des risques de sécurité et je ne suis jamais certain de ne pas exposer une partie stratégique du SI »

Concentrer les entrées en un seul point vous permet de maîtriser et de sécuriser les accès, les habilitations et l’utilisation, à tout moment.

APIM

Constat 4

« Mes données ont de la valeur, mais je ne sais pas comment les valoriser ! »

Monitorer et monétiser la consommation de vos données ouvre de nouveaux business models tout en assurant la non-répudiation des informations échangées.

APIM

Constat 5

« Je dispose déjà de webservices en interne, mais ils ne sont pas mis en lumière »

Mettre en place un portail d’API pour valoriser les services appropriés est un levier évident !

APIM

Constat 6

« J’ai besoin de me différencier auprès de mes clients et de mes partenaires »

L’API Management est l’occasion d’offrir des services complémentaires, plus de visibilité et de renforcer votre transparence.

APIM

Si vous souhaitez lire nos autres articles sur l’API Management, cliquez-ici !

La digitalisation ou numérisation des processus

Dans les organisations, tout est processus. Si le sujet de l’optimisation des processus ne date pas d’hier, ils sont pourtant encore nombreux à ne pas être informatisés et pilotés efficacement. Leur bonne exécution repose alors sur les bonnes volontés de chacun pour saisir correctement les informations ou respecter les délais et les procédures.

Pour aborder ce sujet avec pragmatisme, nous accueillons Edouard Cante, Directeur des Opérations de Blueway, qui va nous partager ses retours d’expérience et ses convictions !

Parler de digitalisation de processus, n’est-ce pas dépassé ?

Edouard Cante : Comme le sujet est discuté depuis des années, la digitalisation des processus peut en effet paraitre simpliste et peu novatrice ! Cependant, il suffit de regarder sur le terrain, dans les organisations, pour se rendre compte que cela reste un enjeu essentiel.

Parler d’IA, de Process Mining ou de RPA (Robotic Process Automation) s’inscrit plus dans la tendance, et nous prenons aussi la parole sur ces sujets. Pourtant, il faut avoir l’esprit pratique, regarder les défis réels que rencontrent les organisations et tout simplement y répondre de la manière la plus pragmatique possible.

Je suis persuadé que, dans de nombreux cas, digitaliser les processus de manière simple et opérationnelle peut encore apporter un service rendu énorme aux entreprises. Et cela sans chercher à y inclure systématiquement du Machine Learning ou des composantes d’IA…

 J’ai encore tous les jours des échanges avec des entreprises dont l’enjeu principal est de gagner du temps et d’économiser de l’énergie en digitalisant leurs processus ! 

Edouard CANTE

Aurais-tu un exemple concret pour illustrer cet enjeu de digitalisation des processus au sein des organisations ?

E.C : Qu’on parle de secteur Public ou de secteur Privé, dans les organisations les problématiques sont les mêmes.

Je vais vous partager un exemple que j’ai récemment rencontré. Cela peut sembler une caricature, mais sur le terrain, ce type de processus est encore très courant aussi bien dans les PME que dans les grands comptes !

Un client important fait une demande de cotation à Michel, qui est commercial. Michel initialise alors un fichier Excel de cotation, qu’il envoie par e-mail à Catherine de L’Administration des Ventes. C’est elle qui doit effectuer le chiffrage.

Catherine reçoit bien le fichier, mais il manque une colonne ! Elle renvoie alors une nouvelle version du fichier à Michel avec sa requête. Michel appelle directement Catherine pour être sûr de bien comprendre, fait la modification et renvoie le fichier. Catherine peut enfin réaliser le chiffrage.

Seulement, le montant du chiffrage dépasse un seuil limite, et Catherine le diffuse donc à Michel mais aussi à Isabelle, la Directrice Commerciale ! Si Michel valide immédiatement le chiffrage, Isabelle n’a pas conscience de l’urgence et ne réagit pas tout de suite. Quelques jours plus tard, elle demande des explications complémentaires. Catherine lui apporte par e-mail des détails et amende le fichier mais Isabelle a toujours un blocage. En réalité, elles se rendent compte un peu plus tard que la cause est une cellule du fichier qui est corrompue et ne permet pas d’avoir les informations sous le format attendu.

Le mystère est résolu, Catherine corrige le fichier qui est enfin validé par Michel et Isabelle. Le document est alors envoyé à John afin qu’il intègre la cotation dans l’ERP. Michel peut alors finalement diffuser la cotation au client final… mais malheureusement hors des délais prévus alors que l’offre aurait sinon eu toutes les chances d’être acceptée !

Exemple de processus à digitaliser

Si ce type de processus semble caricatural, on le retrouve pourtant partout. C’est une réalité ! Informels ou non, les processus qui ne sont pas digitalisés sont très nombreux en entreprises et de nouveaux apparaissent tous les jours.

Directement ils entrainent des pertes de productivité et de réactivité : les intervenants perdent du temps, de nombreuses actions ne sont pas automatisées alors qu’elles pourraient l’être… Ils engendrent aussi un manque d’agilité dès lors qu’une personne est absente, qu’une étape devrait être ajoutée ou qu’une condition évolue.

Sans compter les risques de sécurité. Sans standardisation, les données peuvent être erronées, les informations diffusées aux mauvaises personnes, les étapes de validation non respectées…

Qu’est-ce qui est à la source de la complexité des processus ?

E.C : Un processus est un enchainement d’activités qui à partir de flux entrants va produire un résultat donné. On en trouve dans tous les secteurs, et dans tous les services. Livraison, création d’un nouveau produit, traitement d’une réclamation client… Tout enchainement d’actions est un processus !

L’origine de la complexité des processus, c’est leur transversalité. En effet, dans la majorité des cas, plusieurs intervenants de différents services doivent collaborer. Les organisations mises en place au sein d’un seul service deviennent caduques dès lors qu’on a besoin de croiser des informations et des actions de différents départements.

D’où un enjeu essentiel de normalisation et de coordination à travers toute l’entreprise !

La transversalité, c’est aussi la raison pour laquelle la digitalisation des processus ne peut pas se restreindre aux applications métiers spécifiques. Ils ne doivent pas être contraints par des silos applicatifs !

Edouard CANTE

En quoi digitaliser les processus répond à ces défis ?

E.C : Digitaliser les processus va éviter toute réappropriation par une personne ou un service. Dès qu’un nouveau collaborateur arrive, il peut ainsi entrer dans le moule sans se poser de questions.  Il n’y a pas de déperdition d’information. Grâce à la mise en place d’un portail de processus, les collaborateurs savent où aller, comment initier telle demande…

Evidemment la digitalisation va aussi simplifier les collaborations et automatiser les tâches rébarbatives. Neutraliser les demandes et permettre aux intervenants de mieux se comprendre simplifie les relations et limite les conflits. C’est un gain de confort pour les acteurs mais aussi plus de productivité.

Pour prendre un peu de recul, d’un point de vue de la direction, c’est aussi un très bon moyen de gagner en capacité d’analyse et de contrôle. Où y a-t-il des goulots d’étranglements ? Où perd-on du temps ? Comment anticiper les ressources nécessaires ?

Au niveau de la conduite du changement, cela apporte une vraie transparence. Modifier un processus ne nécessite plus d’expliquer à chacun ce qu’il va devoir changer dans son quotidien. Le processus numérique est toujours le reflet de la dernière version validée et partagée avec les collaborateurs. Toute une partie des changements opérationnels est masquée et automatisée. Bien évidemment, cela ne remplace pas la communication !

C’est donc plus d’agilité, d’excellence opérationnelle, de qualité et un meilleur contrôle des coûts.

La digitalisation des processus, c’est compliqué ?

E.C : Je suis convaincu que digitaliser un processus simple doit être simple. Et dans le cas de processus complexe, c’est souvent bien moins compliqué que ce que l’on croit ! C’est même l’occasion de prendre du recul sur ces processus pour les optimiser. Dans 95% des cas, il n’est pas nécessaire de mettre en place des usines à gaz.

La démarche BPM ou Business Processus Management repose sur la modélisation et l’informatisation des processus. En synthèse, il s’agit de formaliser et de définir les enchainements des tâches en collaboration avec les responsables puis de matérialiser le processus informatiquement au travers de formulaires et d’IHM et enfin de mettre en place les échanges de données entre les systèmes d’applications.

Derrière la digitalisation des processus, il est essentiel de ne pas mettre en place une version figée. La vie d’une entreprise est faite de changements permanents et les processus métiers évoluent aussi sans cesse. Il ne suffit bien sûr pas de dessiner le processus et de le laisser vivre sa vie. Si la première étape est de mener un diagnostic et une cartographie des processus, il faut voir le cycle de vie du BPM : analyse, conception, exécution, surveillance, optimisation… Surveiller le processus, c’est être capable de l’optimiser !

 L’approche BPM a justement vocation à améliorer continuellement la performance et la qualité des processus. La simplicité est ainsi liée à la mise en place, mais aussi à la gestion du cycle de vie des processus !

Le cycle BPM

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Si tu avais un point d’attention à remonter aux organisations qui initient une démarche de digitalisation de leurs processus ?

E.C : Sans hésiter, c’est l’adhérence au SI ! Un vrai processus est hybride, si on veut qu’il réponde aux enjeux métiers et fonctionnels.

Il faut intégrer l’acteur humain par le biais d’IHM adaptées et conviviales mais aussi associer l’automatisation de tâches techniques pour améliorer la productivité et la communication inter-applicative. Un processus qui n’est pas digitalisé de bout en bout n’a que peu de valeur. Sans adhérence au SI, le processus devient un nouveau silo applicatif. Et c’est à éviter à tout prix !

« Dès lors qu’on aborde la numérisation de processus, le facteur clef de succès est une solution logicielle avec une adhérence forte au Système d’Information existant »

Edouard CANTE

Il doit donc être adhérent, c’est-à-dire être en capacité de s’interconnecter pour alimenter des formulaires, enrichir le service, intégrer les informations dans d’autres applications… Le logiciel BPM doit ainsi être capable de consommer et d’organiser les échanges de données entre le processus et le SI.

Je suis persuadé qu’apporter de la simplicité pour modéliser le processus et créer des formulaires ne doit pas se faire au détriment de l’adhérence. S’il faut faire du développement spécifique dès lors qu’on veut s’intégrer avec une application, passez votre chemin ! La souplesse gagnée par la digitalisation du processus sera tout de suite perdue dès lors qu’on voudra mettre en place des évolutions.

Quelques mots pour conclure ?

E.C : Tout d’abord, une conviction : vouloir mener la transformation digitale de son entreprise sans numériser ses processus, c’est impossible.

Ensuite, un point qui nous tient à cœur chez Blueway, c’est que le sujet de la digitalisation ne doit pas être déconnecté de la dimension humaine. Au-delà de la qualité et de la productivité, la digitalisation des processus doit apporter des gains humains. L’expérience client endélivrant des prestations de qualité et le confort des collaborateurs en facilitant leur quotidien sont des cibles à garder en tête, mais ne sont pas les seules. Digitaliser les processus doit aussi participer à repositionner l’humain au cœur du Système d’Information, en libérant les réponses aux enjeux métiers des contraintes techniques.

Vous souhaitez échanger directement avec Edouard Cante ? Prenez rendez-vous dès maintenant !

Echangeons !

Si le Business Process Management est avant tout une démarche, il nécessite des moyens technologiques pour modéliser les processus métiers et les mettre en oeuvre au sein de toute l’entreprise.

Quels sont les critères pour choisir sa solution BPM ?

Les impératifs

Atelier de design de workflow ergonomique

Modéliser simplement les processus, réaliser intuitivement des écrans et des formulaires (WYSIWYG)

Adhérence avec le Système d’Information

Consolider l’information au sein du SI, échanger facilement les données avec l’ensemble des applications et des référentiels

Supervision des flux et des traitements

Disposer de tableaux de bord, tracer toutes les actions, délais et incidents, archiver les processus terminés

Norme BPMN 2.0

Disposer d’un cadre commun de représentation des processus métier afin de partager une même vision au sein de l’organisation

Fonctions standards

Automatiser les alertes, le routage conditionnel des flux, la délégation, les délais d’exécution des activités, relancer les flux en anomalie, contrôler et vérifier les données saisies

Évolutivité

Bénéficier d’une souplesse de paramétrage pour s’adapter au fur et à mesure de ma transformation des processus métier, versionner les processus

Les plus

Nativement Responsive Design

Assurer la mobilité dans la réalisation des tâches aussi bien vis-à-vis de la visualisation que de la saisie

Fonctionnalités de confort et de collaboration

Pouvoir demander des informations complémentaires, enregistrer un brouillon, partager des commentaires…

Editique des informations

Exporter et importer des diagrammes, éditer les informations sous les formats souhaités (Excel, PDF, Word, …)

Processus augmentés

Disposer d’une aide à la saisie, d’enrichissements automatiques, de corrélations, d’une automatisation avancée avec le RPA…

Ouverture vers l’extérieur

Récupérer des informations Open Data, ofrir une ouverture sécurisée aux partenaires, fournisseurs, clients…

Outils de simulation

Simuler et tester l’exécution des processus les impacts des modifications

Portail collaboratif de suivi pour chaque intervenant

Offrir à chacun une visibilité sur les tâches qu’il doit réaliser ou qu’il a initiées ainsi que sur les KPI

Comment mettre cela en place dans mon SI ?

Modéliser le workflow ne suffit pas !

La solution BPM au croisement de 4 enjeux de gouvernance du SI :

1. Gouvernance des Processus (BPM)
pour modéliser et intégrer l’humain au sein des process

2. Gouvernance des données (MDM)
pour harmoniser et faire vivre les données en lien avec le BPM

3. Gouvernance des l’ouverture (API Management)
pour industrialiser et fiabiliser les échanges avec l’extérieur

4. Gouvernance des flux (ESB)
pour transporter les données et contrôler les flux

Vous avez un projet de BPM ou des questions à ce sujet ? Échangez avec l’un de nos experts!

Au plaisir d’échanger avec vous

API Management et portail API : atouts et limites

La transformation des entreprises repose de plus en plus sur le développement des chaînes de valeur avec l’écosystème. Dans ce contexte, on parle de plus en plus des API (Application Programming Interface) et de leur rôle pour permettre aux applications d’interagir ensemble sous des conditions déterminées et documentées.

La gouvernance des API : une évidence face à la multiplication des échanges avec les partenaires

La gouvernance des API au travers d’une solution d’API Management prend toute sa place dès que les partenaires et les API se multiplient et qu’il faut gérer les éléments de mise en œuvre associés :  le contrat d’interfaçage, l’explication, la documentation à fournir… c’est-à-dire lorsque l’organisation rencontre des freins à l’industrialisation des échanges avec son écosystème. Les risques sont alors de ralentir le déploiement des services et l’accompagnement de ses partenaires.

L’API Management a vocation à apporter une réponse à ces enjeux de scalabilité et de répétabilité. Ainsi, une solution d’API Management permettra de gouverner les API, au travers de la gestion de la publication, de la promotion et de la supervision des échanges de données entre le service fournisseur et le service client. Tout cela au sein d’un environnement sécurisé et évolutif.

Plus précisément, les enjeux d’une plateforme d’API Management sont de :

  • Normaliser la publication d’API
  • Administrer l’exposition et la consommation. C’est-à-dire maîtriser ce qui est diffusé !
  • Gérer le cycle de vie complet de vos API (initialisation, versioning, retrait…)
  • Centraliser la diffusion d’API internes comme externes
  • Piloter la consommation
  • Documenter automatiquement les APIs
  • Fournir un espace pour les développeurs avec un bac à sable
  • Monétiser la consommation de vos API

Interview du DSI : comment accompagner la transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

L’API Management ou la gouvernance des API doit donc répondre à certaines promesses :

Souplesse de l’API Management

Renforcer la souplesse dans la composition des offres

l’API Management pour de nouveaux services

Concevoir de nouveaux leviers de croissance au travers de nouveaux services

Intégrer des API tiers

Améliorer la valeur métier en enrichissant ses propres services avec des API tiers

Expérience client grâce à l’APIM

Contribuer à une meilleure expérience client et à l’omnicanalité des services proposés (mobile, web, IoT…)

La scalabilité de l’APIM

Assurer la scalabilité face à l’accroissement des services à proposer, des nouveaux partenaires, et de la consommation

Focus : qu’est-ce qu’un portail API ou API Gateway ?

L’API Gateway ou portail API sont des composants des solutions d’API Management.

Dans le cadre des solutions d’API Management, exposer une architecture de type Gateway vers l’extérieur assure de contrôler ce qui vient de l’extérieur et ce qui est interne. Il s’agit de concentrer les entrées et les sorties en un seul point afin de sécuriser et maîtriser l’utilisation et les accès associés. La brique Gateway va offrir toutes fonctions liées au transcodage, à l’exposition et à l’optimisation des communications. Elle doit aussi répondre aux enjeux de scalabilité.

Si on parle plus largement du concept de « portail », en prenant l’exemple de Blueway, il en existe plusieurs types au sein des solutions d’API Management :

  • Un portail dédié pour les abonnés : les organisations consommatrices peuvent voir via un portail dédié à quelles API vous les avez abonnées et accéder à leurs statistiques de consommation. Des tokens d’accès sécurisent l’ensemble des authentifications.
  • Un portail centralisé et dédié au monitoring de votre parc API : il vous permet de gérer toutes vos API grâce à une vue globale et exhaustive, de les faire évoluer et de configurer leurs expositions. Vous surveillez la consommation et la santé technique de vos API en retrouvant tous les logs et toutes les statistiques de consommation de vos API. Vous gérez les abonnements de vos clients, fournisseurs ou partenaires à vos API durant la période et selon les conditions de votre choix.
  • Un portail pour les développeurs : toute la documentation de vos API, leur structuration et les outils mis à disposition permettront aux développeurs de procéder à des tests en toute autonomie.
API Gateway et portail API

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

Créer les API et gérer les API : deux enjeux complémentaires à distinguer

Si les solutions d’API Management sont essentielles pour gouverner les échanges avec vos partenaires, il faut bien en identifier les limites. Une solution d’API Management n’est pas faite pour créer des API mais pour piloter leur exposition ! Les API doivent être créées en amont.

La solution d’API Management expose ainsi des services qui existent déjà au sein du système d’information. Elle n’a pas non plus pour objectif de structurer ou d’urbaniser votre SI interne.

Ainsi, mettre en place une solution d’API Management ne suffit pas pour répondre à l’enjeu d’APIser votre Système d’Information. Avant d’avancer sur le choix d’une solution d’API Management, vous devez prendre du recul sur de nombreuses questions : quels services avez-vous besoins d’exposer ? Pour quels besoins métiers ? Quel est le niveau de granularité attendu ? Quelle est la maturité de votre écosystème ? Quels KPIs souhaiterez-vous suivre ?

A l’inverse, il faut aussi garder en tête qu’exposer un service juste car il est disponible ne présente pas d’intérêt ! C’est votre besoin qui doit cadrer votre stratégie d’intégration et d’APIsation.

C’est donc une fois que les premières API seront définies et disponibles au sein de votre système d’information qu’une solution d’API Management prendra tout son sens. Pour autant il n’est pas nécessaire d’avoir mis en place dès le départ toutes les API : la démarche peut très bien être itérative ! Mieux vaut éviter l’effet Big Bang.

Comment alors créer des API à exposer ?

Il est possible de développer ses API avec du code et des frameworks de développement propres. Cependant, l’API Management gagne vraiment à s’appuyer sur des solutions d’urbanisation du SI et une architecture orientée services (SOA).

Dans l’un ou l’autre cas, isoler les API déjà présentes dans le SI interne et bien définir ce qui vient de l’extérieur et ce qui est interne est une étape importante avec d’exposer une architecture de type gateway.

Cette vision rejoint des convictions que nous partageons chez Blueway. La réponse ne doit pas être uniquement technique : la technologie reste un support, pas une réponse en soi.

Pour ne pas forcer la réponse à rentrer dans le périmètre technique d’un outil, il est nécessaire d’avoir une vision globale des échanges d’information : processus, référentiels de données, transport de l’information et ouverture vers l’extérieur.

Dans le cas présent, l’urbanisation du système d’information est le socle pour bâtir vos services exposables qui deviendront vos API. Une démarche ESB (Enterprise Service Bus) permettra de mettre en place une architecture SOA (Service Oriented Architecture) avec des composants d’échanges de données normalisés et réutilisables.

Avec l’ESB, les échanges de données sont normalisés et transitent au travers d’un bus applicatif dans le SI. Les applications du système d’information vont s’abonner aux services qui les concernent.

La solution d’API Management participera ensuite à étendre la stratégie SOA mise en place dans son SI interne aux échanges avec votre écosystème. Elle pourra aussi mettre à profit les API externes.

Il faut donc bien différencier l’orchestration des services internes, portée par l’ESB, et la gouvernance des échanges avec l’extérieur, portée par la solution d’API Management. C’est votre besoin de transformation qui définit la valeur à tirer de chaque outil, et non l’inverse !

Vous souhaitez en savoir plus sur la Gouvernance des APIs ? Échangez avec l’un de nos experts!

Au plaisir d’échanger avec vous

Architecture du Système d’Information

Avec leur rôle de plus en plus critique au sein des entreprises, les systèmes d’information se sont fortement complexifiés ces dernières années : ajouts successifs de briques applicatives, généralisation des applications SaaS, interfaces point à point…

Il devient alors ardu pour les entreprises de disposer d’une vision globale du Système d’Information, et d’assurer une vraie cohérence dans sa structuration et son évolution. Le risque derrière l’enchevêtrement des flux entre applications, la disparité des dictionnaires de données et des choix d’infrastructure est de rendre le tout illisible et de créer une inertie très forte dans les changements !

Pourtant, avec les impératifs de transformation (métier, business plan, technique, relation avec l’écosystème…) , l’agilité des entreprises est primordiale. Cette agilité se matérialise en exigences concrètes vis-à-vis du Système d’Information : concevoir un SI à un instant T ne suffit plus ! L’enjeu principal est de pouvoir le faire évoluer et le rationaliser suivant l’apparition de nouveaux besoins, contraintes, innovations…

Le défi de l’architecture du Système d’Information s’inscrit pleinement dans ce contexte et cet objectif stratégique. Un préambule à toute démarche, est de bien différencier Système d’Information et Système Informatique !  Le Système d’Information doit s’inscrire dans une vision fonctionnelle et plus pérenne que l’architecture informatique.

Interview du DSI : comment accompagner la transformation du groupe PAREDES en assurant l’interopérabilité au sein du SI ?

Rappel sur les grands principes de l’architecture du Système d’Information

Les objectifs de l’architecture du SI

L’objectif de l’architecture SI est d’analyser, définir et cadrer l’évolution des systèmes d’information en fonction de la stratégie d’entreprise, des processus métier et des innovations technologiques.

L’architecture du Système d’Information se décompose en 4 strates :

Architecture SI : strate métier
Architecture fonctionnelle du SI
Strate applicative de l’architecture SI
Strate technique de l’architecture du SI

Strate métier

Strate fonctionnelle

Strate applicative

Strate technique ou physique

L’architecture a vocation à apporter une vue consolidée du SI et à proposer un plan cohérent pour aligner infrastructure, applications, modélisation fonctionnelle, besoins métiers et stratégie d’entreprise, tout en prenant en compte l’existant !

La démarche rejoint un point de vue dont nous sommes convaincus chez Blueway : l’architecture doit être étudiée de manière descendante. C’est-à-dire que c’est la stratégie métier qui guide les orientations SI. Les choix métiers ne doivent ainsi pas être guidés par les contraintes techniques ! 

Comment le concept d’architecture SI se met en place dans la pratique ?

Sans rentrer dans les débats d’experts, en synthèse, l’architecte SI va étudier les quatre couches, les liens entre elles et cartographier la structure existante selon chacune des strates (diagrammes d’architectures). C’est l’occasion d’identifier et les dysfonctionnements et les axes d’amélioration.

En prenant en compte les orientations stratégiques, il s’agit ensuite de définir en conséquence la feuille de route et les différentes étapes pour passer du Système d’Information actuel au Système d’Information cible sur chacun des axes. La démarche est majoritairement « top – down », c’est-à-dire que ce sont les objectifs stratégiques et les enjeux métier qui pilotent les autres couches. Il existe de nombreuses méthodes de conception du Système d’Information comme Merise, Axial, IDEF, UML, SAD etc. qui peuvent être utilisées dans le cadre d’une prise de recul sur l’architecture du SI.

Les échanges entre les applications en interne mais aussi avec l’écosystème jouent bien sûr un rôle essentiel dans cette cartographie. La démarche d’urbanisation a aussi vocation à optimiser les processus et les flux d’informations au sein de l’entreprise et à garantir l’unicité et la fiabilité des données durant tout leur cycle de vie.

Ainsi, pour prendre quelques exemples pratiques, la démarche d’architecture du SI va permettre de répondre aux questions : comment sont modélisées mes informations et mes données ? Comment les informations circulent-elles dans mon entreprise ? Quels sont les traitements à réaliser sur ces données ? Quels sont les dysfonctionnements et les étapes à optimiser ? Comment améliorer mes processus métier et les échanges avec l’extérieur ?

ESB et API Management :
2 réponses complémentaires pour soutenir votre transformation business

Les outils et les logiciels au service de l’architecture du SI

Il existe deux grandes catégories d’outils qui viennent assister la démarche d’architecture du SI.

La première correspond aux outils de cartographie pour chacune des couches :

  • Cartographie des processus pour l’architecture métier
  • Cartographie fonctionnelle pour l’architecture fonctionnelle
  • Cartographie applicative pour l’architecture applicative
  • Cartographie technique pour l’architecture technique

Les logiciels de modélisation du SI ou les logiciels d’architecture d’entreprise apportent des réponses à l’enjeu de cartographie des processus : inventaire, recensement du portefeuille d’applications, ilots applicatifs, vues et liens entre les logiciels…

Outre la modélisation initiale, le maintien de la cartographie dans le temps est essentiel. Sans responsable et sans une vraie politique de mise à jour continue, Il est courant de retrouver les anciennes cartographies devenues obsolètes justement lorsqu’il est nécessaire de procéder à des évolutions en profondeur !

L’interopérabilité entre processus et données : le cœur d’une entreprise agile

Focus sur les outils d’urbanisation

La mise en œuvre fonctionnelle et IT de la méthode d’architecture est souvent un passage ardu. Il faut partir du SI existant afin de le faire évoluer vers le Système d’Information cible. La démarche d’architecture du SI doit permettre de ne plus contraindre les processus métier cartographiés et donc la couche métier par rapport aux couches inférieures de l’architecture du SI.

Un gage de succès de la démarche d’urbanisation du SI est donc de ne plus dépendre des applicatifs et des contraintes techniques pour la circulation de l’information. C’est-à-dire de rentrer dans une approche SOA (Services Oriented Architecture) assurant des composants d’échanges de données normalisés et réutilisables, en interne mais aussi avec votre écosystème. Et pour cause, dans de nombreux cas, la cartographie aura montré que les processus d’entreprise ne se restreignent pas aux applicatifs et sont transversaux !

Les outils d’urbanisation doivent ainsi vous garantir de vous affranchir des contraintes techniques afin de mettre votre SI au service des processus métier et de la stratégie d’entreprise, maintenant et dans le futur. Il s’agit ainsi de :

  • Désiloter les applicatifs afin de faire communiquer les applications entre elles
  • Se libérer des interfaces point à point afin d’en finir avec le syndrome spaghettis des échanges inter-applicatifs
  • Superviser les flux et les échanges afin de gagner en réactivité face aux erreurs et en capacité d’analyse
  • Faciliter le remplacement et le décommissionnement d’applications pour que votre Système d’information gagne en agilité
  • Contrôler les impacts lors de la modification des interfaces ou des applications et éviter le cercle vicieux qui consiste à ajouter des couches car on ne maîtrise pas l’existant
  • Ouvrir votre Système d’Information vers vos partenaires, clients, fournisseurs… car les processus métier dépassent maintenant très souvent le SI interne

Comment Blueway vous accompagne dans l’urbanisation de votre SI ?

Sans détailler les terminologies techniques (ESB, EAI, BPM, MDM, demi-interfaces, formats pivots, etc.), notre volonté au travers de notre plateforme Blueway est de vous redonner la maîtrise des flux d’informations et de vous apporter une vision holistique des échanges de données au sein de votre SI et avec l’extérieur :

  • Transporter, manipuler, contrôler, exposer les données dans une logique SOA
  • Modéliser les processus fonctionnels et intégrer l’humain au sein des processus au travers d’IHM ergonomiques
  • Centraliser, harmoniser, unifier les données au sein de référentiels
  • Industrialiser les échanges avec l’extérieur et publier vos services avec un portail d’API.

En complément, si Blueway n’est pas outil de cartographie globale du SI, nous cartographions les flux, données et processus qui transitent au sein de notre application.

Pour nous, les enjeux business et humains doivent rester au cœur du Système d’Information… et être les sources et les guides de son architecture !

Vous souhaitez en savoir plus sur l’architecture du SI ? Prenez rendez-vous avec l’un de nos experts !

Au plaisir d’échanger avec vous !

Découvrez notre vidéo sur le thème des besoins métiers et SI : ce n’est pas aux outils de porter le débat !

Découvrez l’interview d’Edouard Cante, Directeur des Opérations chez Blueway ainsi que le script de celle-ci.

Les organisations se positionnent sur la vision globale et métier des processus et des échanges de données.
Cependant les réponses mises en place sont souvent technologiques. La rupture entre le besoin et la solution peut alors devenir un vrai point de blocage.

Edouard Cante Directeur des Opérations chez Blueway

Les applications verticalisées pour chaque besoin singulier se multiplient. Et souvent, on rentre de force l’enjeu dans une case.
Ces outils cloisonnent et ne prennent pas en compte le rôle essentiel de l’humain dans l’échange d’information.

Les utilisateurs doivent alors perdre beaucoup d’énergie pour s’adapter ou réinventer des méthodes palliatives.
On a oublié une étape dans un processus ? Envoyons un e-mail !
On a besoin d’échanger des fichiers ? Utilisons un service FTP !
Cette déconnexion technologique vis-à-vis des besoins métiers, est une source principale de Shadow IT.

Nous sommes intimement convaincus que c’est à l’outil de s’adapter et non l’inverse. Il ne faut pas répondre spécifiquement à chaque usage, mais il faut faire converger converger la collaboration dans l’organisation.
Contrairement aux idées reçues, les utilisateurs sont tout à fait prêts à s’adapter si cela simplifie les processus métiers. C’est-à-dire rattacher sa particularité au collectif !
C’est aussi l’amélioration de l’organisation qui est en jeu !
Nous sommes persuadés que l’automatisation un support et non une fin en soi.
La transformation digitale doit être inclusive et rattacher tous les acteurs au circuit global de l’information.

Mais comment mettre cela en place en pratique ?

Edouard Cante Directeur des Opérations chez Blueway

Il faut unifier la dimension humaine et technologique en faisant converger les enjeux des services métiers et informatiques.

  • Cette convergence se fait autour de la circulation de l’information. La modélisation des processus révèle le rôle des intervenants humains ; elle permet à chacun de partager sa vision sur le qui, quand quoi, comment,
  • Ensuite le support technologique doit assister la mise en œuvre de ces processus. Sans contraindre les enjeux métiers par des problématiques techniques.

Que doit proposer la solution à retenir ?

Edouard Cante Directeur des Opérations chez Blueway

La solution doit donc imbriquer les rôles humain et technologique.

  1. Elle doit être multi-facettes pour s’adapter aux processus métier et non l’inverse. Aussi bien automatiser les échanges que faciliter l’intégration de l’humain au travers d’interfaces. 
  2. Elle doit se positionner au niveau de l’organisation, afin d’apporter une réponse calquée sur les besoins métiers et de faire adhérer les processus au système d’information.

Pour cela, la solution doit unifier : le transport de l’information, la gestion des processus, les référentiels de données et l’ouverture vers l’extérieur.

Pour chaque besoin métier, il faut avoir une vision globale et partagée, tant des processus que des données. C’est la seule manière pour que vos enjeux ne soient plus contraints par les spécificités techniques !
Derrière le besoin métier, c’est bien l’humain et au-delà l’organisation qui sont présents et qui doivent rester au cœur du système d’information. 

Vous souhaitez échanger sur la place de l’humain au sein du SI avec Edouard ? Prenez rendez-vous !

Découvrez notre vidéo sur le thème de l’ouverture du système d’information

Découvrez l’interview d’Edouard Cante, Directeur des Opérations chez Blueway ainsi que le script de celle-ci.

Les organisations sont de plus en plus dépendantes de leur écosystème. Pour poursuivre leur transformation, elles doivent embarquer leurs partenaires dans leur mutation.

Edouard Cante Directeur des Opérations chez Blueway

Organiser les échanges au sein de votre entreprise mais surtout avec vos clients, fournisseurs et partenaires… participe à l’efficacité de votre organisation mais également à la transformation de son modèle. Il faut être plus connectées, co-construire…

Il s’agit pour vous d’améliorer l’expérience de vos clients en améliorant la satisfaction de ceux-ci. Mais aussi en identifiant de nouveaux services, afin de vous différencier ; afin de devenir finalement une plateforme, et acteur de cet écosystème.

Ainsi, dans les prochaines étapes de votre croissance, vous devez vous poser la question de l’ouverture de votre système d’information et du partage de vos données…

Mais comment répondre à ces défis ?

Edouard Cante Directeur des Opérations chez Blueway

Faites parler les différents systèmes, en automatisant les échanges pour atteindre le temps réel.
Inutile de réinventer les normes ! Ce qui est important c’est de communiquer le plus largement possible. Cette initiative a vocation à démultiplier les échanges.

Pour autant il faut les standardiser, car il ne faut pas limiter cette démarche à la construction technique d’API, en oubliant la gouvernance associée.

L’esprit d’une API est d’être standardisée ! Sans gouvernance, cela reviendrait à créer autant d’interfaces qu’il y a de consommateurs de données. Cela irait à l’encontre des fondements de cette démarche.
La gouvernance d’API doit permettre la convergence de vos échanges de données au sein de votre système d’information, mais également comme point d’entrée unique pour l’extérieur.

Que doit proposer la solution à retenir ?

Edouard Cante Directeur des Opérations chez Blueway

La solution est donc d’avoir une plateforme :

  • Qui offre un portail d’API ; cela structure la relation entre l’extérieur et votre système d’information interne.
  • Qui standardise les API et dresse un cadre clair de responsabilité pour chacun ; cela assure la scalabilité du modèle
  • Mais également qui trace, maîtrise le « Qui, Quand, Quoi, Comment » ; permettant d’assurer la sécurisation de l’intégralité des échanges, tout en offrant la capacité de monétisation de la plateforme.

Bien sûr les bénéfices sont encore plus importants si cette plateforme orchestre les processus et les services internes de votre système d’information. Les échanges avec vos clients, fournisseurs et partenaires sont de nouveaux canaux de communication essentiels à votre business. Il faut les organiser, les industrialiser.

C’est un sujet de transformation de la gouvernance avant d’être un sujet technique !

Vous souhaitez échanger sur le SI de demain avec Edouard ? Prenez rendez-vous !

Gestion des données de référence : réussir son projet MDM

Dans un contexte d’internationalisation, les organisations sont amenées à vivre de grandes transformations, des réorganisations, des fusions complexifiant un Système d’Information déjà fragmenté. Pour mettre de l’ordre et rendre évolutif son architecture, les urbanistes informatiques ont donc bâti des référentiels dans une démarche SOA (data + processus) afin de permettre la gestion des données de référence.

Ces référentiels répondent également à des enjeux business :

  • De nombreuses réglementations autour de la donnée demande toujours plus de transparence et de justification
  • L’environnement compétitif impose de toujours avoir un temps d’avance par rapport à la concurrence et donc de pouvoir prédire, anticiper pour concevoir de nouvelles offres et satisfaire les clients ET les actionnaires
  • Les entreprises sont plus que jamais « customer-centric », ce qui implique de disposer de données à jour, pertinentes sur ses clients, de pouvoir les recouper et les partager sur différentes applications et à différents métiers en interne ou en externe.

Qu’est-ce qu’une donnée de référence ?

Les entreprises ont désormais les moyens de stocker une volumétrie de données impressionnante. Dans ce flot de data, certaines données traversent les processus métiers et sont de ce fait partagées au sein des grandes applications verticales de l’entreprise : les ERP (Entreprise Ressource Planning), les CRM (Customer Relation Management), les PLM (Product Lifecycle Management), les WMS (Warehouse Management System), les PIM (Product information management). Cependant limiter leur partage au sein de ces applications verticales nuit à la transversalité des informations dans l’organisation. Les processus métier réels ne s’arrêtent pas aux frontières des applications verticales !

La question à se poser est la suivante : quelles sont les données les plus importantes, les plus critiques mais aussi les plus pertinentes pour l’organisation ?

La notion de donnée de référence, donnée maîtresse ou data master est apparue en 2003 avec l’essor du Master Data Management (MDM).

Les données de référence peuvent être de diverses natures :

gestion des données de référence produit

Les données Produits comme dans le secteur du retail ou du manufacturing élargies à l’offre de services

pilotage des données de référence tiers

Les données Tiers liées aux clients et aux fournisseurs

management des données de référence de l’organisation

Les données sur l’organisation, les salariés

Gestion des informations financières de référence

Les informations financières

Une fois identifiées, l’enjeu est de créer un référentiel, un fichier maître centralisé afin de permettre une démarche d’amélioration continue de la qualité, la traçabilité des modifications et la reconstitution d’un référentiel à date.

5 conseils pour bien gérer vos données de référence

Avant de mettre en œuvre votre Master Data Management, il convient d’analyser les axes d’évolution de votre référentiel :

  • Finalité de la démarche
  • Niveau de complexité
  • Stabilité du système
  • Nature des objets manipulés

L’état des lieux doit également prendre en compte la volumétrie des données et leur criticité, les applications sources et cibles ainsi que les processus et règles métiers impactant la qualité des données.

Il s’agit ensuite de définir des règles de gestion et d’administration de ce référentiel à savoir qui valide les données, qui arbitre en cas de litige, quels sont les droits attribués à chacun et quelles sont les modalités de diffusion des informations contenues dans le référentiel.

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

Suivez maintenant ces 5 étapes pour bien mener votre projet de gestion des données de références :

1 – Mesurer la qualité des données de références

La qualité d’une donnée s’évalue en fonction de l’usage attendu avec trois approches possibles : l’approche orientée objectif, l’approche orientée traitement et l’approche orientée sémantique.

Pour mesurer la qualité de données maîtres, on s’attachera aux aspects suivants : le profilage, la complétude, la redondance et l’homogénéisation référentielle,

2- Trouver les bons indicateurs

Les indicateurs peuvent porter sur les performances (économies de saisie, meilleure productivité, accroissement des SLA, raccourcissement des cycles…) ou sur l’impact du MDM sur l’organisation du SI, l’implantation de nouvelles briques, la gestion des processus métier…

3 – Fixer un périmètre à la gestion de vos données de référence

Il est maintenant temps de de définir les grandes étapes qui vous mèneront à l’atteinte de vos objectifs. Pour chaque lot de votre projet, il sera important d’impliquer les métiers tout autant que le service informatique afin de valider la faisabilité tant en ressources humaines que technique :

  • Le nettoyage des données
  • L’importation et initialisation du MDM
  • L’interopérabilité du MDM avec les applications sources et cibles de votre SI.
  • La mise en œuvre et l’évolution du MDM

4 – Initialiser les données cibles

L’initialisation du référentiel constitue la première grande étape de la mise en œuvre. Il est possible de remplir ce référentiel au fil de l’eau, au fur et à mesure des entrées ou mises à jour des données, comme il est possible de l’initialiser en rentrant le plus grand nombre d’informations possibles dès sa construction.

Dans tous les cas, la création du référentiel nécessite :

  • La définition et la création de la base de données d’accueil
  • La création et l’instanciation des règles de contrôles et de validation lors de la création des enregistrements
  • La création des règles et dictionnaires de transcodage
  • Le chargement des données qui vont constituer le socle du référentiel

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

5 – Faire vivre son référentiel et prévoir son interopérabilité avec le SI

Le référentiel doit vivre, évoluer, être mis à jour de façon continu et devenir le silo de référence de l’entreprise. Il est donc important de bien définir :

  • L’instanciation des règles de contrôles et de validation lors des mises à jour
  • La mise en œuvre des règles d’historisations des enregistrements
  • La mise en place des règles de suppression
  • La mise en œuvre des politiques de sécurisation d’accès à l’information

Au-delà de ces quelques éléments, il convient de ne jamais perdre de vue qu’un projet MDM va manipuler un grand nombre de données, que les règles de référencement et d’historisation des données manipulées peuvent rapidement s’avérer génératrice de volumétries importantes.

Si votre système d’information le permet, vous pourrez constituer une architecture orientée service et publier des Web Services qui garantiront l’accès aux données ainsi que leur mise à jour.

Pour outiller votre gestion des données de référence, l’approche que nous vous proposons au travers du module de Data Governance de la plateforme Blueway se veut simple et pragmatique.

Vous souhaitez en savoir plus ? Échangez avec nos experts : la Data Governance nous passionne depuis toujours !

Au plaisir de discuter avec vous !