Articles

Data Steward

Le Data Steward, maillon fort de la gouvernance des données

La quantité de données collectées par les entreprises ne fait que croître, et avec elle, le besoin de les traiter. Les professionnels de la donnée prennent donc une importance inédite, une tendance d’autant plus marquée dans un contexte de digitalisation rapide. Désireuses de mieux exploiter leurs données, les entreprises font de plus en plus appel à des profils spécialisés. Leur utilité est réelle : du Data Architect au Data Analyst, chaque métier de la donnée possède ses propres enjeux et spécificités. En charge de la documentation de la donnée, le Data Steward est quant à lui au cœur de cette démarche de valorisation de la data : une position qui en fait un maillon incontournable du traitement des données !

Qui est le Data Steward ?

Le rôle et les missions du Data Steward

Alors que les spécialistes de terrain tels que le Data Owner garantissent la qualité finale des données, le Data Steward, quant à lui, œuvre à leur documentation. Sa mission : assurer le suivi et la collecte d’information au contact des collaborateurs. Son objectif final : faciliter l’accès aux données par les métiers et ce faisant, maximiser l’utilisation des données collectées par l’entreprise.

Le rôle du Data Steward est aussi pragmatique que pédagogique. Celui-ci doit posséder une connaissance approfondie des processus et une vue globale des flux de données, mais aussi être capable de sensibiliser les équipes à l’intérêt de sa mission.

Capable de réunir les informations métier, le Data Steward facilite la compréhension de ces flux par les collaborateurs métiers, et donc la valorisation des données dans l’entreprise.

Concrètement, le Data Steward :

  • Centralise des informations sur les données : il collecte de précieuses indications sur l’usage des données, leur potentielle obsolescence, les modifications ou erreurs qu’elles comportent.
  • Contrôle la qualité de la donnée : en parallèle des procédures de vérification courantes, il met en place des contrôles systématiques et des mesures correctives si nécessaire.
  • Renseigne les métadonnées : les métadonnées décrivent les jeux de données, sous forme d’objet ou de label. Une fois renseignées, elles facilitent l’accès à l’information par les métiers.
  • Propose des formats de documentation technique et métier adaptés : son objectif est de faciliter la consultation par tous et la maintenance des données.
  • Protège les données : il définit un ensemble de protocoles d’accès aux données, mais aussi de diffusion, d’archivage et de suppression. Il garantit à la fois l’inviolabilité et la confidentialité de la data.

Les enjeux de l’intervention d’un Data Steward pour l’entreprise et ses données

Côté entreprise, faire appel à un spécialiste de la donnée est avant tout une manière d’orchestrer sa data governance. La structuration devient de plus en plus incontournable alors que la masse des informations collectées constitue désormais de véritables « lacs de données ». Cette profusion de data impose un tri éclairé et rapide. Le Data Steward apporte de l’ordre dans des données difficiles à maîtriser — et souvent peu exploitées —, offrant ainsi un avantage concurrentiel à son entreprise.

La data quality est elle aussi un enjeu majeur. La rapidité des flux et le nombre exponentiel d’applications crée une part d’erreurs et de redondances non négligeable. Les secteurs fortement réglementés ont impérativement besoin de garantir la conformité de leurs informations. Etiqueter ses jeux de données comme le fait le Data Steward, c’est s’assurer de leur qualité et de leur caractère actuel.

Le Data Steward contribue également à valoriser les données grâce à un étiquetage cohérent avec les codes métiers. L’ajout de métadonnées encourage l’utilisation des données collectées et facilite leur consultation.

Autre défi central dans les stratégies data actuelles : l’unification des données, qui contribue à décloisonner les services et favorise la collaboration. L’utilisation de formats de documents pratiques et actuels crée une passerelle entre métiers, accélérant le traitement de l’information.

L’unification crée enfin des effets de synergie : l’utilisation instantanée des données par les métiers crée une véritable collaboration en temps réel, éliminant les fastidieux aller-retours d’information.

Méthodes et solutions au service du Data Steward

Pour mener à bien sa mission de référencement des jeux de données, le Data Steward a plusieurs outils clés à sa disposition :

Comment LOTO QUEBEC a déployé un Référentiel Client Unique pour améliorer la performance marketing ?

La plateforme de Data Stewardship

Outil privilégié du Data Steward, cette plateforme qui prend la forme d’un tableau de bord facilite l’orchestration des projets de données.

La solution de Data Stewardship permet au Data Steward de coordonner les actions, certifier les données ou encore suivre l’avancée des tâches au sein de chaque projet. L’aspect très collaboratif des outils de Data Stewardship permet aux responsables métiers de s’impliquer dans l’enrichissement des données de référence, sous la direction du Data Steward.

Pour ce dernier, cette plateforme est un accélérateur pour une documentation fiable et participative des données. La solution de Data Stewardship apporte également une part d’automatisation très utile — règles de validation, parfois même collecte de connaissances par l’IA… Facilitant la gestion quotidienne, elle contribue à la création d’un référentiel de données complet et sans erreur.

La solution de Master Data Management

Grâce au MDM, solution de gestion des données de référence de l’entreprise, le Data Steward assure la consolidation des données dans un référentiel unique. Les données peuvent ainsi être unifiées à date malgré la disparité des applications sources.

Le Master Data Management garantit :

  • La consolidation des données des applications : l’information collectée auprès d’applications métiers hétérogènes est centralisée et optimisée au sein de l’outil
  • Le contrôle des données : la définition de règles de rédaction et de gestion unifie la consultation
  • La traçabilité : le suivi des modifications d’un processus à l’autre garantit l’intégrité des projets
  • La qualité des données : la caractérisation des données via un indice de confiance et la consolidation se font dans le respect des normes en vigueur 
  • Une vision prédictive : cartographie applicative, relations entre les données et analyse de scénarios facilitent la compréhension du cycle de vie de la data

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Solution de gestion des métadonnées et data catalog

Les métadonnées sont en essor constant, et pour cause : que les données soient techniques, métiers ou opérationnelles, la mise en place du metadata management permet de tirer plus de valeur de ses jeux de données.

Les outils de gestion des métadonnées sont utiles à la fois aux collaborateurs métiers et aux Data Stewards. Ces derniers les emploient pour mieux administrer la donnée : gestion des accès et du partage, intégration, analyse et maintenance sont ainsi plus simples à contrôler.

Le metadata management permet au Data Steward de garantir davantage de consistance des données. Des terminologies plus durables garantissent une meilleure durée de vie de la data, et donc une performance accrue des services.

Les outils de gestion des métadonnées fournissent également des reportings et analyses sur la base d’un catalogue de données.

Ce data catalog constitue une base de données intelligente, accessible par les parties prenantes pour rechercher et éventuellement partager les jeux de données. De sa qualité et de son exhaustivité dépend en grande partie la performance du Data Steward.

Les métiers de la data et les nombreuses dimensions de la donnée

La donnée est aujourd’hui un élément central, à la fois sur le terrain et dans un usage plus stratégique. Plusieurs autres rôles clés permettent de la traiter sous les angles technique et métier. On citera notamment le Data Architect, responsable de l’infrastructure de données, le Data Owner, au rôle de cartographie et de protection des données, le Data Analyst pour l’extraction et l’interprétation stratégique, ou encore le Data Scientist, capable d’élaborer des modèles prédictifs sur la base de la data extraite.

Les cas d’usage des données sont eux aussi très nombreux et appellent des solutions logicielles diverses :

Le Data Steward utilise le MDM

Centralisation et unification MDM
Le référentiel de données unique facilite la consultation et la mise en œuvre des projets de données

ESB : un outil pour le Data Steward

Transport inter-applicatif ESB
L’Enterprise Service Bus contribue à l’urbanisation des flux de données entre des applications de toutes générations

Quels logiciels pour le Data Steward ?

Exploitation par les processus BPM
La donnée est précieuse pour les processus métiers, qui doivent adhérer au SI et s’appuyer sur des données orientées processus.

Les outils du data steward

Ouverture aux sociétés partenaires API Management
La multiplication des échanges avec des sociétés tierces impose une administration fine des API et une maîtrise de la consommation de données.

On le voit, la donnée est multifacette : sa collecte et sa gestion doivent donc prendre en compte l’ensemble de ses dimensions et usages, tout au long de son cycle de vie.

Le Data Steward s’inscrit dans une stratégie très riche de traitement de la data, mais il doit en être de même pour les applications d’entreprise. C’est uniquement en prenant du recul sur ses données qu’une entreprise pourra pleinement les valoriser.

Chez Blueway nous sommes convaincus que le succès de la stratégie data des entreprises repose sur une vision partagée et globale des données et des processus. C’est pour cela que nous proposons une plateforme qui réunifie toutes les dimensions de l’échange de données : MDM, BPM, ESB et APIM.

Vous souhaitez échanger avec l’un de nos experts sur la Data Steward ou plus largement sur le gouvernance des données ?

Au plaisir de discuter !

SI Legacy ou Système d’Information Legacy

Introduction : les nouveaux enjeux soulevés par le SI legacy

En quelques décennies seulement, les systèmes d’information ont subi une profonde transformation. Avec le déploiement constant de nouvelles solutions digitales dans les entreprises, de nombreux outils deviennent obsolètes : le « système hérité », ou SI legacy, devient une vraie question de fond.

En raison de l’accélération des innovations technologiques durant les vingt dernières années, l’évolution des parcs applicatifs a été importante et difficile à maîtriser. Les applications des Systèmes d’Information ont bien souvent été développées de manière empirique, sans faire l’objet d’une véritable stratégie à long terme. Sur ce parc applicatif vieillissant repose aujourd’hui une partie des processus clés des entreprises.

En parallèle, les défis se multiplient : les fusions et acquisitions imposent d’unifier les SI et les processus, et la communication accrue avec les partenaires commerciaux nécessite de rationaliser les échanges. La mobilité et l’utilisation de solutions SaaS transforment rapidement le visage du SI moderne ! Sans compter que le rythme des évolutions technologiques et la diversification des infrastructures compliquent la tâche de migration des anciennes applications.

A ce besoin d’évolutivité s’ajoute une autre composante essentielle : le changement de gouvernance liée au SI sous l’impulsion des métiers. Ceux-ci sont plus impliqués que jamais dans les décisions stratégiques en matière de logiciels. Les solutions d’entreprise doivent répondre avec précision aux besoins métiers : au défi technique de transmission de l’information s’ajoute donc le besoin de résoudre les problématiques de terrain. L’évolution des briques applicatives, qu’elles concernent les nouvelles solutions ou le SI legacy, doit se faire avec un impact minimum sur la performance des équipes, et donc sur les processus en place.

Face à ces enjeux de performance, les entreprises doivent aujourd’hui réfléchir à la mise à niveau de leurs anciennes applications, mais aussi à la manière de structurer l’ensemble de leur SI pour mieux anticiper l’avenir.

Les impacts du SI Legacy sur l’organisation

Une grande partie des entreprises a fait évoluer son SI, avec notamment l’utilisation de solutions SaaS. Cette nouvelle couche applicative, venue s’ajouter aux applications legacy, bénéficie rarement d’une vraie synergie avec les anciennes applications. De ce manque d’urbanisation découlent de réelles problématiques pour les responsables métiers :

  • Complexité de l’ajout d’applications : le déploiement de nouvelles applications est complexifié par l’existence d’un parc historique non unifié. La communication point-à-point, très répandue dans les Systèmes d’Information, crée de nombreux flux uniques, difficiles à cartographier et maîtriser.
  • Information incomplète : les flux d’information désordonnés ne peuvent être traités correctement. L’information parvenant aux processus métiers est donc souvent incomplète ou mal structurée et ne peut être pleinement exploitée.
  • Lourdeurs de gestion : la gestion d’un parc applicatif disparate entraîne de nombreuses tâches à faible valeur ajoutée, qui mobilisent les équipes. L’unification de l’architecture SI peut, au contraire, donner lieu à des automatisations et faire gagner les collaborateurs en productivité.
  • Coûts de maintenance : Le SI Legacy implique souvent de maintenir plus de systèmes, lesquels sont parfois redondants. Il en résulte des coûts et des efforts inutiles, qui nuisent à la performance.
  • Perte de vision globale des processus : les processus métiers s’intègrent dans une stratégie globale, et il en va de même de l’information. Les flux nécessitent une véritable architecture pour assurer une continuité à chaque étape des projets.

L’évolution des processus et des logiciels creusent en permanence le fossé entre anciennes et nouvelles applications. Il est judicieux de réfléchir au plus tôt à une stratégie d’urbanisation et de rationalisation. Déployer les bonnes démarches et solutions permet de répondre aux exigences techniques et de répondre plus rapidement aux besoins métiers.

Quelle approche pour urbaniser son SI legacy ?

Dans un contexte où l’agilité est primordiale, il est impératif de mettre en place une démarche d’urbanisation de son Système d’information.

A la base de cette structuration se trouvent plusieurs principes clés :

Décloisonner l’information

Favoriser le décloisonnement de l’information

Lorsque les applications vieillissantes se multiplient, il devient essentiel d’instaurer une communication systématique et maîtrisée entre elles. L’urbanisation vise à éviter tout enfermement de l’information, et donc toute perte de performance.

Réaliser une cartographie des processus

Cartographier
ses processus d’entreprise

Les processus métiers ne doivent pas être contraints par les applications. Sur la base des besoins réels, IT et métiers modélisent ensemble les process au service d’un SI plus performant.

Architecture d’intégration

Organiser son architecture d’intégration

Une bonne communication entre applications doit s’associer à une architecture plus globale et évolutive. Cette prise de recul permet de maîtriser son SI et de maintenir un niveau de dépendance limité entre applications.

Ces principes permettent d’unifier la communication inter-applicative, et apportent plus de souplesse d’action, même en cas de profond changement de structure.

Répondre aux problématiques du SI legacy par l’urbanisation

L’urbanisation du SI apporte une réponse pertinente aux enjeux posés par le SI legacy, en facilitant :

  • Le décommissionnement des applications : la suppression de composants obsolètes permet de ne conserver que les éléments méritant d’être maintenus. Ce décommissionnement réduit les risques, les coûts, et permet de rationaliser le Système d’Information.
  • La réduction des dépendances : la circulation des données n’est plus contrainte par les anciennes applications et les difficultés liées à leur maintien. Les échanges normalisés deviennent exploitables dans tout l’écosystème de l’entreprise.
  • L’ajout plus simple de briques applicatives : dans un environnement unifié avec des flux d’information clairs, les briques logicielles s’insèrent et se retirent plus simplement, avec un impact maîtrisé sur l’action des métiers.
  • L’identification des nœuds applicatifs : connaître les points de contention par lesquels passent les flux de données, c’est mieux anticiper l’organisation de ces flux et les risques.
  • La prise de recul sur l’organisation des flux : la circulation des données tout au long de leur cycle de vie a un impact fort sur la mise en œuvre de la stratégie d’entreprise. L’urbanisation favorise également l’amélioration continue des flux et des processus.

Comment Citelum a-t-il urbanisé son SI autour d’une Architecture SOA ?

Des solutions logicielles concrètes au service de l’urbanisation

Au cœur de cette urbanisation se trouvent deux solutions essentielles, qui permettent de conjuguer gestion des flux et optimisation des processus :

L’ESB (Enterprise Service Bus)

L’ESB

La technologie de bus applicatif assure la circulation de l’information entre applications, sans qu’il soit nécessaire de développer une interface individuelle pour chacune d’entre elles. Chaque élément du SI peut ainsi puiser l’information nécessaire dans cet « Enterprise Service Bus ».

Cette solution garantit ainsi des échanges simplifiés et structurés entre applications récentes et legacy. Elle se met également au service de la stabilité de l’infrastructure : les briques applicatives peuvent être ajoutées ou modifiées tout en conservant des flux d’information constants et fiables.

Le bus applicatif permet également de gérer des enjeux courants pour les entreprises : distribution de volumes de données importants, enrichissement du référentiel de données, échanges synchrones et asynchrones…

Le BPM (Business Process Management)

Le BPM

Cette urbanisation des échanges n’est rien sans une parfaite adéquation entre flux de données et exigences métiers. Les processus, qui structurent l’action de l’entreprise, font circuler et vivre les données, mais également s’enrichissent de ces données collectées. C’est là qu’intervient le Business Process Management, solution qui permet de digitaliser les processus métier, mais aussi de renforcer leur agilité et leur adhérence au SI. Automatisation des tâches à plus faible valeur ajoutée, planification, suivi et règles de gestion : grâce à l’interopérabilité entre ESB et BPM, les processus s’appuient sur des informations toujours fiables et disponibles. Ils sont aussi adhérents au Système d’Information !

Mettez aussi à profit les autres dimensions de l’échange de données

Pour offrir un niveau de performance optimal, en interne mais aussi à destination des partenaires commerciaux, l’utilisation de ces solutions doit s’inscrire dans une logique d’Architecture Orientée Services (SOA).

La structuration des échanges contribue aussi à créer un écosystème cohérent avec le fonctionnement interne, et à mieux adapter l’offre de services aux partenaires.

Des solutions telles que l’API Management s’inscrivent dans cette démarche et assurent de gouverner l’exposition de ses API. Elles garantissent la gestion fine des consommations de données, et la gouvernance des API elles-mêmes, de leur déploiement à leur retrait. De cette manière, les échanges entre partenaires sont facilités, scalables et structurés, et les données sécurisées tout au long de leur cycle de vie.

Chez Blueway, nous sommes convaincus que vos enjeux métiers et l’évolution de votre Système d’Information ne doivent pas être contraintes par le SI Legacy et les réponses techniques ! C’est pourquoi nous proposons une plateforme qui unifie toutes les dimensions de l’échange d’information : ESB, BPM, MDM et APIM.

Vous souhaitez en savoir plus sur le Système d’Information legacy ? Échangez avec l’un de nos experts !

Au plaisir de discuter avec vous !

Environnement SAP et système d’information agile

De très nombreuses entreprises, quel que soit leur secteur d’activité (industrie, services, grande distribution, ingénierie, etc.), disposent d’une architecture informatique qui repose sur SAP avec de nombreuses applications gravitant autour. Cet ensemble hétérogène de solutions doit aussi interagir avec l’écosystème de l’entreprise : partenaires, fournisseurs, sous-traitants, clients…

Si SAP dispose d’un périmètre fonctionnel très vaste, il est bien connu que c’est aussi une énorme usine applicative, complexe voire même lourde d’utilisation, avec entre autres :

  • Un coût par licence non négligeable et une majorité d’utilisateurs qui ne mettent à profit qu’une partie restreinte des fonctionnalités,
  • Une prise en main souvent compliquée surtout pour les utilisateurs occasionnels qui ont simplement besoin de récupérer une information ou de saisir une commande.
  • Une mise en œuvre rigide et une évolution souvent complexe. C’est aux utilisateurs de s’adapter au logiciel et non l’inverse, ce qui engendre aussi des difficultés quotidiennes !

Effectuer des gestions simples est au final souvent compliqué et tous les utilisateurs chez nos clients équipés SAP s’accordent sur le fait qu’ils souhaiteraient retrouver davantage d’agilité… Mais comment faire concrètement ?

Prendre du recul sur le rôle de l’ERP dans l’organisation des flux d’informations

Ces retours du terrain font que si l’environnement SAP est perçu comme fiable et robuste, il est aussi associé à des qualificatifs moins positifs : peu convivial, difficile à prendre en main, lourd… Derrière ces adjectifs, le constat est sans appel : centrer ses flux autour de SAP avec des interfaces de données point à point crée un carcan informatique qu’il est difficile de faire évoluer et qui nuit donc à l’agilité de l’entreprise :

  • Une modification d’un des blocs applicatifs impacte toute la chaine d’information.
  • Sans vision globale du processus métier, c’est en fin de cycle qu’on s’aperçoit qu’il manque des éléments et les risques d’erreurs sont plus importants.
  • Dans le cadre d’une montée de version SAP, c’est alors tout le système d’information et les flux inter-applications qui sont remis en cause. Il faut souvent redévelopper les interfaces et redéfinir les flux entre SAP et les autres applicatifs.
  • Repenser ces processus transversaux pour les optimiser impose de modifier de multiples interfaces, et c’est souvent un axe d’amélioration laissé de côté

Ces défis ne sont pas liés au fonctionnel étendu de SAP qui apporte une vraie valeur ajoutée aux entreprises utilisatrices qui ne pourraient plus s’en passer. C’est le positionnement de SAP dans la gouvernance des données et des flux qui est en fait en cause. Tout comme les utilisateurs doivent se concentrer sur leur métier grâce à l’automatisation des flux d’informations, SAP doit se concentrer sur ce qu’il sait bien faire. Structurer et gérer les flux inter-applicatifs n’en fait pas partie !

La méthode : rationaliser les flux d’informations autour de SAP pour rendre le SI plus agile

Les échanges de données qui transitent autour de SAP sont multiples et extrêmement hétérogènes : commandes, systèmes de gestion d’entrepôt, données de facturation, informations liées à la paye, fichiers bancaires, comparatifs de prix, etc. L’agilité du système d’information repose sur une urbanisation des transferts de données pour les rationaliser et les rendre plus évolutifs et souples.

Face à un environnement IT complexe, il faut en effet faciliter la manipulation des données quel que soit l’application ou le flux d’informations concerné. Pour cela, les processus métiers transversaux et agiles ne peuvent pas être dépendants d’une application ou d’un format de données. Cette indépendance est le seul moyen de rompre la lourdeur d’évolution du SI.

L’architecture globale doit ainsi être au service d’une vision transversale et indépendante des applications. C’est le processus métier qui définit la structure des échanges. Cette architecture doit permettre de gérer, organiser et superviser l’ensemble des échanges inter-applicatifs en particulier avec et vers SAP.

Cette architecture, doit aussi transformer et transporter la donnée sous un format neutre pour permettre de l’intégrer quelle que soit l’application cible : aussi bien SAP que n’importe quelle autre solution du SI interne ou de l’écosystème IT. C’est aussi le meilleur moyen de pouvoir interagir avec les systèmes d’informations des partenaires, clients, fournisseurs…, en effaçant le problème de format et en gagnant en agilité opérationnelle.

Pour en savoir plus sur cette interopérabilité vitale entre processus et données et profiter de conseils concrets pour retrouver davantage d’agilité autour de votre environnement SAP, n’hésitez pas à télécharger notre Livre Blanc :

L’interopérabilité entre processus et données : le cœur d’une entreprise agile

Vers un environnement SAP agile : la solution pratique et les bénéfices

C’est donc une vraie trousse à outils qui est nécessaire et elle se matérialise sous la forme d’une plateforme d’intégration associant gestion des processus (BPM), bus applicatif ESB et étant ouverte sur l’harmonisation des données (MDM). Cette plateforme permettra de maîtriser, d’optimiser, de consolider et de piloter tous les flux dans leur globalité. Contrairement à l’environnement SAP, la plateforme d’intégration des données peut être externe aux différentes briques applicatives du SI.

Cette approche offre ainsi une réversibilité pour chaque application et permet surtout de retrouver davantage d’agilité au niveau du système d’information pour :

  • Faciliter l’intégration de nouvelles applications dans le SI,
  • Remplacer des briques fonctionnelles sans impact sur les processus,
  • Optimiser les processus transversaux qui font interagir plusieurs briques applicatives,
  • Sécuriser et automatiser les échanges d’informations,
  • Mettre en place une tour de contrôle offrant une vision consolidée de tous les échanges et remontant les alertes,
  • Limiter la consommation de licences SAP à ceux qui en ont vraiment l’usage fonctionnel.

Cette agilité retrouvée se ressent rapidement au niveau de l’entreprise : les responsables n’ont plus à se poser la question de comment procéder pour faire interagir telle application ou telle technologie avec telle autre, les métiers peuvent piloter en autonomie leurs échanges de données… Avec cette démarche, c’est tout simplement les enjeux métiers qui définissent les processus transversaux et non les contraintes IT et de connectivité. Au final, cette agilité et cette fiabilité des échanges bénéficient directement à l’efficacité opérationnelle de l’entreprise.

Bien sûr, les entreprises, en particulier les PME/PMI, préfèrent généralement optimiser en continu leur système d’information de manière « chirurgicale » pour ne pas remettre en cause l’ensemble des flux d’informations. Cependant, migrer une version de SAP, remettre en cause des briques logicielles importantes ou intégrer une nouvelle activité sont de très bonnes occasions de revoir en profondeur vos processus et l’urbanisation de votre SI. Une opportunité à ne pas rater si vous êtes dans ce cas !

Pour profiter de retours d’expériences pratiques de sociétés qui ont retrouvé leur agilité, accédez à nos témoignages clients ou échangez avec nos experts !

Vous souhaitez en savoir sur le sujet ? Prenez rendez-vous dès maintenant avec l’un de nos experts !

Echangeons !

EAI : Outils ETL vs ESB

ETL, ESB, EAI, EDI, SOA, APIM… il existe de multiples acronymes liés à la gestion des flux de données et il est facile de s’y perdre. Certains acronymes ont des périmètres similaires, d’autres complémentaires, d’autres encore se recouvrent partiellement.

Dans cette interview, Edouard Cante, Directeur des Opérations de Blueway, nous partage sa vision et ses convictions sur la distinction ETL vs ESB, et ses conséquences pour les entreprises. Face aux besoins métiers, est-ce vraiment le bon débat ?

Dans un précédent article, nous avions conclu que l’ESB et la gestion des API étaient deux faces d’une même pièce. Est-ce la même chose pour l’ESB et l’ETL ?

Edouard Cante : Non, leurs périmètres se recouvrent en partie : ils se positionnent tous les deux sur le transport et la transformation de la donnée au sein du système d’information. Par nature, on pourrait considérer qu’il y a un choix à faire selon les types de flux. Ce n’était pas le cas entre ESB et APIM qui sont complémentaires.

Les différences historiques reposent surtout sur la dimension architecturelle. Pour des personnes qui ne sont pas expertes du data management, percevoir les spécificités de l’ETL et de l’ESB n’est pas aisée. A cela s’ajoute que les contours ont évolué ces dernières années.

De manière historique et un peu caricaturale, l’ETL va être performant pour gérer de très fortes volumétries avec des enjeux de performance, mais pour un nombre limité d’échanges. Il va traiter la donnée de manière ensembliste. Par exemple, si on souhaite obtenir la somme du chiffre d’affaires ventilé par client, l’ETL va agréger toutes les lignes, et appliquer un traitement sur la totalité. Cette approche ensembliste est en particulier adaptée pour la Business Intelligence et le Data Warehousing.

A l’opposé, l’ESB va être efficace pour traiter un nombre et une fréquence élevés d’échanges avec une volumétrie limitée de données associée à une dimension algorithmique des opérations. Il va avoir toute sa place pour décloisonner l’information et accompagner une Architectures Orientée Services en se positionnant comme un bus d’échange sécurisé et transversal à tout le SI.

 Si on résume à l’extrême, l’ETL, c’est l’outil pour construire son data Warehouse depuis son ERP et son CRM. L’ESB, c’est pour la personne qui souhaite exposer au travers de demi-interfaces les devis, commandes et clients depuis son CRM par exemple et permettre aux autres applications d’aller chercher ces informations en se connectant au bus applicatif de données.

Edouard CANTE

Cependant, ma conviction, c’est que ces différences historiques frôlent maintenant la caricature ! Qui peut dire aujourd’hui qu’il achète un outil ETL uniquement pour de la BI ?

Pourquoi cette conviction que cette distinction entre outils ESB et ETL n’est plus adaptée ?

E.C : Une autre différence souvent mise en avant est que l’ETL est une technologie Pull, à la demande, alors que l’ESB est une technologie push, à la production des messages. Mais, côté client, peut-on vraiment ne faire que du pull ou que du push ? Quand une entreprise a mis un place un ETL, et doit faire du push, cela ne peut pas reposer sur chaque application ! Cela demande des développements spécifiques et fait ressortir le problème au cœur de cette distinction.

Si ce cloisonnement entre ESB et ETL avait lieu d’être il y a 10 ans, ma conviction, c’est qu’il n’est plus d’actualité du point de vue métier. Des concepts différents ne doivent pas sous-entendre des solutions différentes ! Demander au DSI de choisir entre deux outils différents selon ce qu’il veut exposer ou faire interagir, c’est prendre le problème du mauvais côté. On ne contraint pas le besoin métier par les enjeux techniques !

Pour la majorité des entreprises, il n’y a aucun ROI à s’équiper d’un côté d’un pur ETL et de l’autre d’un pur ESB.

Edouard CANTE

Comment le marché a évolué depuis l’apparition de ces concepts d’ETL et d’ESB ?

E.C : A l’origine, il y avait de vraies différences technologiques. Les marchés se sont scindés et ont évolué. Certains éditeurs d’ETL ont marché sur les plates-bandes des éditeurs d’ESB et réciproquement pour gagner des parts de marché. En même temps, certains discours marketing ont cloisonné les besoins en fonction des technologies pour affirmer leur positionnement. Des éditeurs d’ESB ont aussi cherché à se définir comme puristes.

Le débat a été principalement mené sur le front de la technologie et non pas vis-à-vis des besoins finaux. C’est une erreur !

Edouard CANTE

En conséquence, les frontières sont devenues floues du point de vue client et cela a mené à des positions caricaturales. Les interlocuteurs ont généralement mal compris ce qu’était un ESB et son potentiel. On résumait parfois l’ESB au déplacement de données en négligeant son rôle pour organiser toute la circulation de l’information. Résultat : de nombreux projets ont échoué à cause de ces approches dogmatiques !

J’ai l’exemple d’un retailer où le projet a démarré par une cartographie théorique des flux avec de superbes schémas pour défendre une approche 100% ESB. Finalement, quand le projet a été lancé, cette position extrême s’est heurtée à la réalité : certaines applications ne pouvaient pas faire du temps réel. Le projet a été un échec complet.

Si opposer ETL et ESB est une erreur, quel est le vrai enjeu ?

E.C : Le vrai enjeu, c’est d’inverser le point de vue. C’est à cause de ces questions marketing « ESB ou ETL » qu’on arrive à ces échecs ! Cette dichotomie n’a plus de sens dans la majorité des cas.

Le DSI se retrouve à devoir choisir entre deux outils alors que son besoin a lui est commun : dans la majorité des cas, il souhaite décloisonner et faire circuler l’information entre les applications de son SI, réaliser un peu de BI, et centraliser les informations dans un MDM. Faire correspondre chaque concept à une solution différente, l’oblige à séparer son besoin métier sans que cela ait de bénéfice pour lui.

Il faut faire le pont entre les deux. La solution doit répondre au besoin métier, et non à un dogme technologique !

Edouard CANTE

Ce défi se retrouve même au sein des utilisateurs qui ont une compétence sur des outils plus que sur les concepts. Les utilisateurs prennent alors moins de recul sur la gestion des flux en tant quel tel. C’est en comprenant les concepts que les utilisateurs pourront monter en compétences, et adopter plus facilement des outils différents.

L’interopérabilité entre processus et données : le cœur d’une entreprise agile

Si la question n’est pas ETL ou ESB, quelles sont les questions à se poser pour mener à bien son projet d’urbanisation ?

E.C : Il faut déjà commencer par accepter et prendre en compte la réalité ! S’il est important de cartographier ses processus et de prendre du recul, il ne faut pas se contenter d’une vision théorique : « tout sera SOA » « tout communiquera via des API ». La vision du futur, c‘est bien, mais dans la réalité, il faut que les applications puissent communiquer dès maintenant !

C’est aux outils de converger pour s’adapter au métier et non l’inverse : l’objectif est d’unifier la collaboration dans l’organisation.

La guerre ETL ESB n’a plus de sens ! Pour répondre aux besoins des DSI, ils ne doivent plus être dissociés. La distinction porte maintenant sur la transformation et le transport des données d’un côté, et de l’autre sur son exploitation.

Edouard CANTE

Si une différence doit exister, je la positionnerai à un autre niveau. On peut différencier les solutions de data transformation qui assurent une circulation sécurisée et mettent à disposition les données pour des outils de data préparation très fonctionnels, dédiés aux métiers : data scientist, BI…

Les métiers ont ainsi accès à des outils très fonctionnels, qui leur sont dédiés, et le Data Manager conserve son rôle central pour garantir la qualité, la transformation et la mise à disposition des données. Ce sont ces outils de data preparation qui font évoluer le marché ! L’autonomie des métiers prend tout son sens, sans pour autant que cela implique qu’ils agissent sur la circulation de l’information. Celle-ci doit en effet répondre à des enjeux critiques de performance et de légalité.

La circulation des informations doit donc être appréhendée dans sa globalité, quel que soit le « mode de transport » pour répondre aux enjeux métier. La vraie différence au niveau des outils repose maintenant entre la data transformation et la data préparation !

Edouard CANTE

Je suis donc convaincu qu’il faut à la fois répondre aux standards actuels, mais aussi respecter la fameuse Legacy du Système d’Information. Les clients qui utilisent les solutions ETL/ESB/EAI doivent faire avec cet actif, ils n’ont pas le choix ! En tant qu’éditeur, c’est donc aussi notre rôle. Nous devons être la boîte à outils qui permette aux clients de faire circuler l’information.

Chez Blueway, nous n’avons jamais cultivé la différence ESB vs ETL. Notre souhait et de pouvoir répondre globalement à l’enjeu d’urbanisation du SI avec une plateforme modulaire qui réunifie les concepts autour des enjeux métiers et humains. Il existe des cas extrêmes où un super outil ETL serait nécessaire, mais on le rencontre très peu dans la réalité !

Vous souhaitez échanger directement avec Edouard Cante ? Prenez rendez-vous dès maintenant !

Echangeons !

API Mangement en infographie

De la théorie…

L’API Management renforce les chaines de valeur
avec vos partenaires, clients et fournisseurs

… aux situations concrètes

Constat 1

« De plus en plus de mes clients et partenaires demandent à accéder à mes services et à mes données.
C’est un frein à mon développement ! »

L’industrialisation du déploiement des API favorise la scalabilité de votre business model et améliore votre efficacité opérationnelle.

APIM

Constat 2

« Entre l’IIoT, les services du SI… je me perds dans la profusion d’API et d’interfaces point à point »

Séparer l’orchestration des services internes de l’exposition vers l’extérieur au travers une architecture de type
Gateway simplifie la gouvernance de vos API.

APIM

Constat 3

« Je fais face à des risques de sécurité et je ne suis jamais certain de ne pas exposer une partie stratégique du SI »

Concentrer les entrées en un seul point vous permet de maîtriser et de sécuriser les accès, les habilitations et l’utilisation, à tout moment.

APIM

Constat 4

« Mes données ont de la valeur, mais je ne sais pas comment les valoriser ! »

Monitorer et monétiser la consommation de vos données ouvre de nouveaux business models tout en assurant la non-répudiation des informations échangées.

APIM

Constat 5

« Je dispose déjà de webservices en interne, mais ils ne sont pas mis en lumière »

Mettre en place un portail d’API pour valoriser les services appropriés est un levier évident !

APIM

Constat 6

« J’ai besoin de me différencier auprès de mes clients et de mes partenaires »

L’API Management est l’occasion d’offrir des services complémentaires, plus de visibilité et de renforcer votre transparence.

APIM

Si vous souhaitez lire nos autres articles sur l’API Management, cliquez-ici !

La digitalisation ou numérisation des processus

Dans les organisations, tout est processus. Si le sujet de l’optimisation des processus ne date pas d’hier, ils sont pourtant encore nombreux à ne pas être informatisés et pilotés efficacement. Leur bonne exécution repose alors sur les bonnes volontés de chacun pour saisir correctement les informations ou respecter les délais et les procédures.

Pour aborder ce sujet avec pragmatisme, nous accueillons Edouard Cante, Directeur des Opérations de Blueway, qui va nous partager ses retours d’expérience et ses convictions !

Parler de digitalisation de processus, n’est-ce pas dépassé ?

Edouard Cante : Comme le sujet est discuté depuis des années, la digitalisation des processus peut en effet paraitre simpliste et peu novatrice ! Cependant, il suffit de regarder sur le terrain, dans les organisations, pour se rendre compte que cela reste un enjeu essentiel.

Parler d’IA, de Process Mining ou de RPA (Robotic Process Automation) s’inscrit plus dans la tendance, et nous prenons aussi la parole sur ces sujets. Pourtant, il faut avoir l’esprit pratique, regarder les défis réels que rencontrent les organisations et tout simplement y répondre de la manière la plus pragmatique possible.

Je suis persuadé que, dans de nombreux cas, digitaliser les processus de manière simple et opérationnelle peut encore apporter un service rendu énorme aux entreprises. Et cela sans chercher à y inclure systématiquement du Machine Learning ou des composantes d’IA…

 J’ai encore tous les jours des échanges avec des entreprises dont l’enjeu principal est de gagner du temps et d’économiser de l’énergie en digitalisant leurs processus ! 

Edouard CANTE

Aurais-tu un exemple concret pour illustrer cet enjeu de digitalisation des processus au sein des organisations ?

E.C : Qu’on parle de secteur Public ou de secteur Privé, dans les organisations les problématiques sont les mêmes.

Je vais vous partager un exemple que j’ai récemment rencontré. Cela peut sembler une caricature, mais sur le terrain, ce type de processus est encore très courant aussi bien dans les PME que dans les grands comptes !

Un client important fait une demande de cotation à Michel, qui est commercial. Michel initialise alors un fichier Excel de cotation, qu’il envoie par e-mail à Catherine de L’Administration des Ventes. C’est elle qui doit effectuer le chiffrage.

Catherine reçoit bien le fichier, mais il manque une colonne ! Elle renvoie alors une nouvelle version du fichier à Michel avec sa requête. Michel appelle directement Catherine pour être sûr de bien comprendre, fait la modification et renvoie le fichier. Catherine peut enfin réaliser le chiffrage.

Seulement, le montant du chiffrage dépasse un seuil limite, et Catherine le diffuse donc à Michel mais aussi à Isabelle, la Directrice Commerciale ! Si Michel valide immédiatement le chiffrage, Isabelle n’a pas conscience de l’urgence et ne réagit pas tout de suite. Quelques jours plus tard, elle demande des explications complémentaires. Catherine lui apporte par e-mail des détails et amende le fichier mais Isabelle a toujours un blocage. En réalité, elles se rendent compte un peu plus tard que la cause est une cellule du fichier qui est corrompue et ne permet pas d’avoir les informations sous le format attendu.

Le mystère est résolu, Catherine corrige le fichier qui est enfin validé par Michel et Isabelle. Le document est alors envoyé à John afin qu’il intègre la cotation dans l’ERP. Michel peut alors finalement diffuser la cotation au client final… mais malheureusement hors des délais prévus alors que l’offre aurait sinon eu toutes les chances d’être acceptée !

Exemple de processus à digitaliser

Si ce type de processus semble caricatural, on le retrouve pourtant partout. C’est une réalité ! Informels ou non, les processus qui ne sont pas digitalisés sont très nombreux en entreprises et de nouveaux apparaissent tous les jours.

Directement ils entrainent des pertes de productivité et de réactivité : les intervenants perdent du temps, de nombreuses actions ne sont pas automatisées alors qu’elles pourraient l’être… Ils engendrent aussi un manque d’agilité dès lors qu’une personne est absente, qu’une étape devrait être ajoutée ou qu’une condition évolue.

Sans compter les risques de sécurité. Sans standardisation, les données peuvent être erronées, les informations diffusées aux mauvaises personnes, les étapes de validation non respectées…

Qu’est-ce qui est à la source de la complexité des processus ?

E.C : Un processus est un enchainement d’activités qui à partir de flux entrants va produire un résultat donné. On en trouve dans tous les secteurs, et dans tous les services. Livraison, création d’un nouveau produit, traitement d’une réclamation client… Tout enchainement d’actions est un processus !

L’origine de la complexité des processus, c’est leur transversalité. En effet, dans la majorité des cas, plusieurs intervenants de différents services doivent collaborer. Les organisations mises en place au sein d’un seul service deviennent caduques dès lors qu’on a besoin de croiser des informations et des actions de différents départements.

D’où un enjeu essentiel de normalisation et de coordination à travers toute l’entreprise !

La transversalité, c’est aussi la raison pour laquelle la digitalisation des processus ne peut pas se restreindre aux applications métiers spécifiques. Ils ne doivent pas être contraints par des silos applicatifs !

Edouard CANTE

En quoi digitaliser les processus répond à ces défis ?

E.C : Digitaliser les processus va éviter toute réappropriation par une personne ou un service. Dès qu’un nouveau collaborateur arrive, il peut ainsi entrer dans le moule sans se poser de questions.  Il n’y a pas de déperdition d’information. Grâce à la mise en place d’un portail de processus, les collaborateurs savent où aller, comment initier telle demande…

Evidemment la digitalisation va aussi simplifier les collaborations et automatiser les tâches rébarbatives. Neutraliser les demandes et permettre aux intervenants de mieux se comprendre simplifie les relations et limite les conflits. C’est un gain de confort pour les acteurs mais aussi plus de productivité.

Pour prendre un peu de recul, d’un point de vue de la direction, c’est aussi un très bon moyen de gagner en capacité d’analyse et de contrôle. Où y a-t-il des goulots d’étranglements ? Où perd-on du temps ? Comment anticiper les ressources nécessaires ?

Au niveau de la conduite du changement, cela apporte une vraie transparence. Modifier un processus ne nécessite plus d’expliquer à chacun ce qu’il va devoir changer dans son quotidien. Le processus numérique est toujours le reflet de la dernière version validée et partagée avec les collaborateurs. Toute une partie des changements opérationnels est masquée et automatisée. Bien évidemment, cela ne remplace pas la communication !

C’est donc plus d’agilité, d’excellence opérationnelle, de qualité et un meilleur contrôle des coûts.

La digitalisation des processus, c’est compliqué ?

E.C : Je suis convaincu que digitaliser un processus simple doit être simple. Et dans le cas de processus complexe, c’est souvent bien moins compliqué que ce que l’on croit ! C’est même l’occasion de prendre du recul sur ces processus pour les optimiser. Dans 95% des cas, il n’est pas nécessaire de mettre en place des usines à gaz.

La démarche BPM ou Business Processus Management repose sur la modélisation et l’informatisation des processus. En synthèse, il s’agit de formaliser et de définir les enchainements des tâches en collaboration avec les responsables puis de matérialiser le processus informatiquement au travers de formulaires et d’IHM et enfin de mettre en place les échanges de données entre les systèmes d’applications.

Derrière la digitalisation des processus, il est essentiel de ne pas mettre en place une version figée. La vie d’une entreprise est faite de changements permanents et les processus métiers évoluent aussi sans cesse. Il ne suffit bien sûr pas de dessiner le processus et de le laisser vivre sa vie. Si la première étape est de mener un diagnostic et une cartographie des processus, il faut voir le cycle de vie du BPM : analyse, conception, exécution, surveillance, optimisation… Surveiller le processus, c’est être capable de l’optimiser !

 L’approche BPM a justement vocation à améliorer continuellement la performance et la qualité des processus. La simplicité est ainsi liée à la mise en place, mais aussi à la gestion du cycle de vie des processus !

Le cycle BPM

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Si tu avais un point d’attention à remonter aux organisations qui initient une démarche de digitalisation de leurs processus ?

E.C : Sans hésiter, c’est l’adhérence au SI ! Un vrai processus est hybride, si on veut qu’il réponde aux enjeux métiers et fonctionnels.

Il faut intégrer l’acteur humain par le biais d’IHM adaptées et conviviales mais aussi associer l’automatisation de tâches techniques pour améliorer la productivité et la communication inter-applicative. Un processus qui n’est pas digitalisé de bout en bout n’a que peu de valeur. Sans adhérence au SI, le processus devient un nouveau silo applicatif. Et c’est à éviter à tout prix !

« Dès lors qu’on aborde la numérisation de processus, le facteur clef de succès est une solution logicielle avec une adhérence forte au Système d’Information existant »

Edouard CANTE

Il doit donc être adhérent, c’est-à-dire être en capacité de s’interconnecter pour alimenter des formulaires, enrichir le service, intégrer les informations dans d’autres applications… Le logiciel BPM doit ainsi être capable de consommer et d’organiser les échanges de données entre le processus et le SI.

Je suis persuadé qu’apporter de la simplicité pour modéliser le processus et créer des formulaires ne doit pas se faire au détriment de l’adhérence. S’il faut faire du développement spécifique dès lors qu’on veut s’intégrer avec une application, passez votre chemin ! La souplesse gagnée par la digitalisation du processus sera tout de suite perdue dès lors qu’on voudra mettre en place des évolutions.

Quelques mots pour conclure ?

E.C : Tout d’abord, une conviction : vouloir mener la transformation digitale de son entreprise sans numériser ses processus, c’est impossible.

Ensuite, un point qui nous tient à cœur chez Blueway, c’est que le sujet de la digitalisation ne doit pas être déconnecté de la dimension humaine. Au-delà de la qualité et de la productivité, la digitalisation des processus doit apporter des gains humains. L’expérience client endélivrant des prestations de qualité et le confort des collaborateurs en facilitant leur quotidien sont des cibles à garder en tête, mais ne sont pas les seules. Digitaliser les processus doit aussi participer à repositionner l’humain au cœur du Système d’Information, en libérant les réponses aux enjeux métiers des contraintes techniques.

Vous souhaitez échanger directement avec Edouard Cante ? Prenez rendez-vous dès maintenant !

Echangeons !

ATOL CD Partenaire Blueway

Atol CD, entreprise de services numériques a développé de nombreuses expertises pour répondre aux enjeux de transformation numérique de ses clients, acteurs majeurs des secteurs public et privé en France. Pour enrichir encore son offre, Atol CD est désormais partenaire Blueway, éditeur de la plateforme de logiciels BPM, MDM, ESB et API management intégrés

“La gestion des téléservices est un axe de développement majeur de la transition numérique gérée par nos clients du secteur public. L’approche résolument pragmatique de la plateforme Blueway est en ligne avec nos valeurs et notre approche de conseil et de réalisation, qui consiste à accompagner nos clients vers des résultats probants dans des budgets et des plannings contraints. Les produits Blueway fournissent les moyens d’une industrialisation de la mise à disposition et de l’évolution des téléservices au sein du portail citoyen tout en ouvrant des perspectives plus larges pour l’automatisation des processus métiers, ainsi que pour l’urbanisation des Systèmes d’Information de nos clients.”

Michaël Domanski, Directeur Alliances Atol CD.

« Nous sommes heureux de compter ATOL CD comme distributeur et intégrateur de notre plateforme. La proximité, l’expertise technologique, l’agilité, la capacité à s’engager auprès de nos clients – entreprises comme collectivités – sont autant de valeurs que nous avons en commun.
ATOL CD, par leur positionnement et leur connaissance éprouvée du secteur public, sera un partenaire incontournable pour Blueway dans la stratégie de développement dédiée aux collectivités que nous avons mise en place »

Romain Winkelmuller, Directeur Général Adjoint chez Blueway.

A propos d’Atol CD
Atol Conseils et Développements accompagne ses clients dans leur transformation numérique : création de nouvelles offres numériques, d’avantages compétitifs, d’innovations, développement de leur efficacité opérationnelle. Nos collaborateurs, nos expertises, nos expériences sont au service de nos clients pour tirer le meilleur parti de la technologie pour servir les besoins fonctionnels et les projets de nos clients.
Conception, développement, exploitation, Atol CD propose une démarche à 360, de l’expérience utilisateur à l’infogérance avec des expertises fortes pour concevoir et réaliser les projets : développement web et mobile, expertise SIG open source, GED, BPM, RPA, BI, big data, plateforme IOT, API management…

A propos de Blueway
Blueway est l’éditeur français d’une plateforme logicielle d’échanges de données et de gestion des processus : Data Driven Solution.
Réunifier ces dimensions est la clé de l’agilité pour une entreprise comme pour une collectivité : c’est cette philosophie qui est à l’origine de notre volonté de faciliter la communication entre applicatifs et de proposer une solution globale qui intègre toutes les dimensions de la gouvernance de données ; en replaçant l’humain (utilisateur, agent, usager) au centre.
Les solutions Blueway accompagnent déjà plus de 150 entreprises et collectivités, dans leurs enjeux de transformation numérique et de gestion de la relation utilisateur.

Contact Presse :

Blueway, l’éditeur lyonnais spécialiste de la gestion des data et des processus, boucle une première levée de fonds de 3,5 millions d’euros pour accélérer son développement

Lyon, le 7 septembre 2020 – Présent sur le marché de l’urbanisation du Système d’Information et du Data Management depuis quinze ans, Blueway est l’éditeur français d’une des plateformes d’intégration et de gouvernance de données les plus puissantes et les plus complètes du marché.

Afin d’accélérer son développement, Blueway annonce une levée de fonds de 3,5 millions d’euros, réalisée auprès de l’investisseur Capital & Dirigeants Partenaires. L’opération, accompagnée par Wanda Corporate Finance, va permettre à Blueway d’étoffer ses équipes et de démultiplier sa présence en Europe, pour accompagner toujours plus d’acteurs du secteur public (état, collectivités, agences) comme du secteur privé, dans leur transition numérique.

« Cette toute première levée de fonds, d’autant plus dans le contexte sanitaire actuel, est une belle preuve de confiance des investisseurs dans le modèle Blueway. Cela nous conforte dans notre vision et notre ambition : faire émerger le futur leader français du management de la donnée et des processus ; partenaire stratégique des ETI et des collectivités ».

Romain Winkelmuller, Directeur Général Adjoint de Blueway

Blueway propose une plateforme logicielle de gestion de la donnée et des processus – Data Driven Solution – qui permet de répondre à des problématiques métiers par la conception et la gouvernance de référentiels de données, la modélisation et l’automatisation de processus, tout en assurant l’administration, l’exploitation et l’optimisation de leur déroulement.

Les solutions Blueway équipent déjà plus de 150 entreprises et administrations en France, dont : Airbus Defence & Space, Citelum EDF, Botanic, Cegid, Courtepaille, Cultura, Derichebourg, M. Bricolage, Galderma, Laboratoires Expanscience, les laboratoires Théa, Recipharm, Urgo, la Monnaie de Paris ; ou encore les régions Bretagne, Pays de la Loire, Grand Est, et les départements des Yvelines, des Hauts-de-Seine et du Morbihan.

A l’heure où la Data devient un enjeu stratégique pour toutes les entreprises et organisations, quels que soient leur secteur ou leur taille, Blueway, grâce à cette levée de fonds, déploie un projet ambitieux, basé sur :
Le recrutement d’une vingtaine de profils techniques, commerciaux et marketing dans les prochains mois, pour atteindre une soixantaine de collaborateurs courant 2021 ;
L’installation d’une équipe à Paris, dans l’année, pour se rapprocher des clients franciliens et du Nord de la France ;
Le renforcement de l’offre et de l’accompagnement dédiés aux collectivités, pour les aider à atteindre plus rapidement leurs objectifs de transformation et de numérisation de la relation usager.
Avec ce projet, Blueway se donne pour ambition de multiplier par 4 son chiffre d’affaires en 5 ans, pour atteindre 18 millions d’euros à horizon 2025.

Revue de Presse :

Le Monde Informatique – 7 septembre 2020
https://www.lemondeinformatique.fr/actualites/lire-telex-iphone-12-max-pro-avec-5g-nr-epic-tente-de-revenir-sur-l-app-store-blueway-leve-3-5-meteuro-sur-mdm-et-api-80288.html

Le Journal des Entreprises – 7 septembre 2020
https://www.lejournaldesentreprises.com/auvergne-rhone-alpes/breve/lediteur-lyonnais-blueway-leve-35-millions-deuros-526007?utm_source=20200908%20QUO_LYO_ABO%20L%27actu%20%E9co%20du%20jour%20en%20Auvergne%20Rh%F4ne-Alpes&utm_medium=Newsletters_JDE

Bref Echo – 8 septembre 2020
https://www.brefeco.com/actualite/logiciels-services-numeriques/levee-de-fonds-reussie-pour-lediteur-lyonnais-blueway

Fusacq – 8 septembre 2020
https://www.fusacq.com/buzz/wanda-corporate-finance-accompagne-blueway-dans-sa-levee-de-fonds-de-35-m-aupres-de-capital-dirigeants-partenaires-a198432_fr_

La Tribune – 8 septembre 2020
https://acteursdeleconomie.latribune.fr/en-bref/2020-09-08/blueway-3-5-millions-d-euros-pour-devenir-l-un-des-leaders-du-data-management-856613.html

Les Echos Capital Finances – le 9 septembre 2020
https://capitalfinance.lesechos.fr/deals/capital-developpement/blueway-souvre-a-capital-dirigeants-partenaires-1240818

Usine Digitale – 11 septembre 2020
https://www.usine-digitale.fr/article/sarbacane-yomoni-spacefill-les-levees-de-fonds-de-la-french-tech-cette-semaine.N1002849

Le Progrès – 14 septembre 2020
https://www.leprogres.fr/economie/2020/09/14/l-editeur-de-logiciels-blueway-leve-3-5-millions-d-euros-de-fonds

Animasoft – 15 septembre 2020
https://animasoft.com/articles/186507/blueway-leve-35-millions-deuros.html

ITR Manager – 15 septembre 2020
https://itrmanager.com/articles/186507/blueway-leve-35-millions-deuros.html

ITR Software – 15 septembre 2020
https://itrsoftware.com/articles/186507/blueway-leve-35-millions-deuros.html

L’Entreprise Connectée – 15 septembre 2020
https://lentrepriseconnectee.com/articles/186507/blueway-leve-35-millions-deuros.html

Tendance IT – 15 septembre 2020
https://tendancesit.com/articles/186507/blueway-leve-35-millions-deuros.html

Info DSI – 15 septembre 2020
https://infodsi.com/articles/186507/blueway-leve-35-millions-deuros.html

IT Channel – 15 septembre 2020
https://itchannel.info/articles/186507/blueway-leve-35-millions-deuros.html

Lyon Décideur – 24 septembre 2020
https://lyondecideurs.com/2020/09/actu/blueway-leve-35-millions-deuros-et-vise-le-leadership-hexagonal/

Si le Business Process Management est avant tout une démarche, il nécessite des moyens technologiques pour modéliser les processus métiers et les mettre en oeuvre au sein de toute l’entreprise.

Quels sont les critères pour choisir sa solution BPM ?

Les impératifs

Atelier de design de workflow ergonomique

Modéliser simplement les processus, réaliser intuitivement des écrans et des formulaires (WYSIWYG)

Adhérence avec le Système d’Information

Consolider l’information au sein du SI, échanger facilement les données avec l’ensemble des applications et des référentiels

Supervision des flux et des traitements

Disposer de tableaux de bord, tracer toutes les actions, délais et incidents, archiver les processus terminés

Norme BPMN 2.0

Disposer d’un cadre commun de représentation des processus métier afin de partager une même vision au sein de l’organisation

Fonctions standards

Automatiser les alertes, le routage conditionnel des flux, la délégation, les délais d’exécution des activités, relancer les flux en anomalie, contrôler et vérifier les données saisies

Évolutivité

Bénéficier d’une souplesse de paramétrage pour s’adapter au fur et à mesure de ma transformation des processus métier, versionner les processus

Les plus

Nativement Responsive Design

Assurer la mobilité dans la réalisation des tâches aussi bien vis-à-vis de la visualisation que de la saisie

Fonctionnalités de confort et de collaboration

Pouvoir demander des informations complémentaires, enregistrer un brouillon, partager des commentaires…

Editique des informations

Exporter et importer des diagrammes, éditer les informations sous les formats souhaités (Excel, PDF, Word, …)

Processus augmentés

Disposer d’une aide à la saisie, d’enrichissements automatiques, de corrélations, d’une automatisation avancée avec le RPA…

Ouverture vers l’extérieur

Récupérer des informations Open Data, ofrir une ouverture sécurisée aux partenaires, fournisseurs, clients…

Outils de simulation

Simuler et tester l’exécution des processus les impacts des modifications

Portail collaboratif de suivi pour chaque intervenant

Offrir à chacun une visibilité sur les tâches qu’il doit réaliser ou qu’il a initiées ainsi que sur les KPI

Comment mettre cela en place dans mon SI ?

Modéliser le workflow ne suffit pas !

La solution BPM au croisement de 4 enjeux de gouvernance du SI :

1. Gouvernance des Processus (BPM)
pour modéliser et intégrer l’humain au sein des process

2. Gouvernance des données (MDM)
pour harmoniser et faire vivre les données en lien avec le BPM

3. Gouvernance des l’ouverture (API Management)
pour industrialiser et fiabiliser les échanges avec l’extérieur

4. Gouvernance des flux (ESB)
pour transporter les données et contrôler les flux

Vous avez un projet de BPM ou des questions à ce sujet ? Échangez avec l’un de nos experts!

Au plaisir d’échanger avec vous

API Management et portail API : atouts et limites

La transformation des entreprises repose de plus en plus sur le développement des chaînes de valeur avec l’écosystème. Dans ce contexte, on parle de plus en plus des API (Application Programming Interface) et de leur rôle pour permettre aux applications d’interagir ensemble sous des conditions déterminées et documentées.

La gouvernance des API : une évidence face à la multiplication des échanges avec les partenaires

La gouvernance des API au travers d’une solution d’API Management prend toute sa place dès que les partenaires et les API se multiplient et qu’il faut gérer les éléments de mise en œuvre associés :  le contrat d’interfaçage, l’explication, la documentation à fournir… c’est-à-dire lorsque l’organisation rencontre des freins à l’industrialisation des échanges avec son écosystème. Les risques sont alors de ralentir le déploiement des services et l’accompagnement de ses partenaires.

L’API Management a vocation à apporter une réponse à ces enjeux de scalabilité et de répétabilité. Ainsi, une solution d’API Management permettra de gouverner les API, au travers de la gestion de la publication, de la promotion et de la supervision des échanges de données entre le service fournisseur et le service client. Tout cela au sein d’un environnement sécurisé et évolutif.

Plus précisément, les enjeux d’une plateforme d’API Management sont de :

  • Normaliser la publication d’API
  • Administrer l’exposition et la consommation. C’est-à-dire maîtriser ce qui est diffusé !
  • Gérer le cycle de vie complet de vos API (initialisation, versioning, retrait…)
  • Centraliser la diffusion d’API internes comme externes
  • Piloter la consommation
  • Documenter automatiquement les APIs
  • Fournir un espace pour les développeurs avec un bac à sable
  • Monétiser la consommation de vos API

L’API Management ou la gouvernance des API doit donc répondre à certaines promesses :

Souplesse de l’API Management

Renforcer la souplesse dans la composition des offres

l’API Management pour de nouveaux services

Concevoir de nouveaux leviers de croissance au travers de nouveaux services

Intégrer des API tiers

Améliorer la valeur métier en enrichissant ses propres services avec des API tiers

Expérience client grâce à l’APIM

Contribuer à une meilleure expérience client et à l’omnicanalité des services proposés (mobile, web, IoT…)

La scalabilité de l’APIM

Assurer la scalabilité face à l’accroissement des services à proposer, des nouveaux partenaires, et de la consommation

Focus : qu’est-ce qu’un portail API ou API Gateway ?

L’API Gateway ou portail API sont des composants des solutions d’API Management.

Dans le cadre des solutions d’API Management, exposer une architecture de type Gateway vers l’extérieur assure de contrôler ce qui vient de l’extérieur et ce qui est interne. Il s’agit de concentrer les entrées et les sorties en un seul point afin de sécuriser et maîtriser l’utilisation et les accès associés. La brique Gateway va offrir toutes fonctions liées au transcodage, à l’exposition et à l’optimisation des communications. Elle doit aussi répondre aux enjeux de scalabilité.

Si on parle plus largement du concept de « portail », en prenant l’exemple de Blueway, il en existe plusieurs types au sein des solutions d’API Management :

  • Un portail dédié pour les abonnés : les organisations consommatrices peuvent voir via un portail dédié à quelles API vous les avez abonnées et accéder à leurs statistiques de consommation. Des tokens d’accès sécurisent l’ensemble des authentifications.
  • Un portail centralisé et dédié au monitoring de votre parc API : il vous permet de gérer toutes vos API grâce à une vue globale et exhaustive, de les faire évoluer et de configurer leurs expositions. Vous surveillez la consommation et la santé technique de vos API en retrouvant tous les logs et toutes les statistiques de consommation de vos API. Vous gérez les abonnements de vos clients, fournisseurs ou partenaires à vos API durant la période et selon les conditions de votre choix.
  • Un portail pour les développeurs : toute la documentation de vos API, leur structuration et les outils mis à disposition permettront aux développeurs de procéder à des tests en toute autonomie.
API Gateway et portail API

Créer les API et gérer les API : deux enjeux complémentaires à distinguer

Si les solutions d’API Management sont essentielles pour gouverner les échanges avec vos partenaires, il faut bien en identifier les limites. Une solution d’API Management n’est pas faite pour créer des API mais pour piloter leur exposition ! Les API doivent être créées en amont.

La solution d’API Management expose ainsi des services qui existent déjà au sein du système d’information. Elle n’a pas non plus pour objectif de structurer ou d’urbaniser votre SI interne.

Ainsi, mettre en place une solution d’API Management ne suffit pas pour répondre à l’enjeu d’APIser votre Système d’Information. Avant d’avancer sur le choix d’une solution d’API Management, vous devez prendre du recul sur de nombreuses questions : quels services avez-vous besoins d’exposer ? Pour quels besoins métiers ? Quel est le niveau de granularité attendu ? Quelle est la maturité de votre écosystème ? Quels KPIs souhaiterez-vous suivre ?

A l’inverse, il faut aussi garder en tête qu’exposer un service juste car il est disponible ne présente pas d’intérêt ! C’est votre besoin qui doit cadrer votre stratégie d’intégration et d’APIsation.

C’est donc une fois que les premières API seront définies et disponibles au sein de votre système d’information qu’une solution d’API Management prendra tout son sens. Pour autant il n’est pas nécessaire d’avoir mis en place dès le départ toutes les API : la démarche peut très bien être itérative ! Mieux vaut éviter l’effet Big Bang.

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

Comment alors créer des API à exposer ?

Il est possible de développer ses API avec du code et des frameworks de développement propres. Cependant, l’API Management gagne vraiment à s’appuyer sur des solutions d’urbanisation du SI et une architecture orientée services (SOA).

Dans l’un ou l’autre cas, isoler les API déjà présentes dans le SI interne et bien définir ce qui vient de l’extérieur et ce qui est interne est une étape importante avec d’exposer une architecture de type gateway.

Cette vision rejoint des convictions que nous partageons chez Blueway. La réponse ne doit pas être uniquement technique : la technologie reste un support, pas une réponse en soi.

Pour ne pas forcer la réponse à rentrer dans le périmètre technique d’un outil, il est nécessaire d’avoir une vision globale des échanges d’information : processus, référentiels de données, transport de l’information et ouverture vers l’extérieur.

Dans le cas présent, l’urbanisation du système d’information est le socle pour bâtir vos services exposables qui deviendront vos API. Une démarche ESB (Enterprise Service Bus) permettra de mettre en place une architecture SOA (Service Oriented Architecture) avec des composants d’échanges de données normalisés et réutilisables.

Avec l’ESB, les échanges de données sont normalisés et transitent au travers d’un bus applicatif dans le SI. Les applications du système d’information vont s’abonner aux services qui les concernent.

La solution d’API Management participera ensuite à étendre la stratégie SOA mise en place dans son SI interne aux échanges avec votre écosystème. Elle pourra aussi mettre à profit les API externes.

Il faut donc bien différencier l’orchestration des services internes, portée par l’ESB, et la gouvernance des échanges avec l’extérieur, portée par la solution d’API Management. C’est votre besoin de transformation qui définit la valeur à tirer de chaque outil, et non l’inverse !

Vous souhaitez en savoir plus sur la Gouvernance des APIs ? Échangez avec l’un de nos experts!

Au plaisir d’échanger avec vous