Articles

Découvrez notre vidéo sur le thème des besoins métiers et SI : ce n’est pas aux outils de porter le débat !

Découvrez l’interview d’Edouard Cante, Directeur des Opérations chez Blueway ainsi que le script de celle-ci.

Les organisations se positionnent sur la vision globale et métier des processus et des échanges de données.
Cependant les réponses mises en place sont souvent technologiques. La rupture entre le besoin et la solution peut alors devenir un vrai point de blocage.

Edouard Cante Directeur des Opérations chez Blueway

Les applications verticalisées pour chaque besoin singulier se multiplient. Et souvent, on rentre de force l’enjeu dans une case.
Ces outils cloisonnent et ne prennent pas en compte le rôle essentiel de l’humain dans l’échange d’information.

Les utilisateurs doivent alors perdre beaucoup d’énergie pour s’adapter ou réinventer des méthodes palliatives.
On a oublié une étape dans un processus ? Envoyons un e-mail !
On a besoin d’échanger des fichiers ? Utilisons un service FTP !
Cette déconnexion technologique vis-à-vis des besoins métiers, est une source principale de Shadow IT.

Nous sommes intimement convaincus que c’est à l’outil de s’adapter et non l’inverse. Il ne faut pas répondre spécifiquement à chaque usage, mais il faut faire converger converger la collaboration dans l’organisation.
Contrairement aux idées reçues, les utilisateurs sont tout à fait prêts à s’adapter si cela simplifie les processus métiers. C’est-à-dire rattacher sa particularité au collectif !
C’est aussi l’amélioration de l’organisation qui est en jeu !
Nous sommes persuadés que l’automatisation un support et non une fin en soi.
La transformation digitale doit être inclusive et rattacher tous les acteurs au circuit global de l’information.

Mais comment mettre cela en place en pratique ?

Edouard Cante Directeur des Opérations chez Blueway

Il faut unifier la dimension humaine et technologique en faisant converger les enjeux des services métiers et informatiques.

  • Cette convergence se fait autour de la circulation de l’information. La modélisation des processus révèle le rôle des intervenants humains ; elle permet à chacun de partager sa vision sur le qui, quand quoi, comment,
  • Ensuite le support technologique doit assister la mise en œuvre de ces processus. Sans contraindre les enjeux métiers par des problématiques techniques.

Que doit proposer la solution à retenir ?

Edouard Cante Directeur des Opérations chez Blueway

La solution doit donc imbriquer les rôles humain et technologique.

  1. Elle doit être multi-facettes pour s’adapter aux processus métier et non l’inverse. Aussi bien automatiser les échanges que faciliter l’intégration de l’humain au travers d’interfaces. 
  2. Elle doit se positionner au niveau de l’organisation, afin d’apporter une réponse calquée sur les besoins métiers et de faire adhérer les processus au système d’information.

Pour cela, la solution doit unifier : le transport de l’information, la gestion des processus, les référentiels de données et l’ouverture vers l’extérieur.

Pour chaque besoin métier, il faut avoir une vision globale et partagée, tant des processus que des données. C’est la seule manière pour que vos enjeux ne soient plus contraints par les spécificités techniques !
Derrière le besoin métier, c’est bien l’humain et au-delà l’organisation qui sont présents et qui doivent rester au cœur du système d’information. 

Vous souhaitez échanger sur la place de l’humain au sein du SI avec Edouard ? Prenez rendez-vous !

Découvrez notre vidéo sur le thème de l’ouverture du système d’information

Découvrez l’interview d’Edouard Cante, Directeur des Opérations chez Blueway ainsi que le script de celle-ci.

Les organisations sont de plus en plus dépendantes de leur écosystème. Pour poursuivre leur transformation, elles doivent embarquer leurs partenaires dans leur mutation.

Edouard Cante Directeur des Opérations chez Blueway

Organiser les échanges au sein de votre entreprise mais surtout avec vos clients, fournisseurs et partenaires… participe à l’efficacité de votre organisation mais également à la transformation de son modèle. Il faut être plus connectées, co-construire…

Il s’agit pour vous d’améliorer l’expérience de vos clients en améliorant la satisfaction de ceux-ci. Mais aussi en identifiant de nouveaux services, afin de vous différencier ; afin de devenir finalement une plateforme, et acteur de cet écosystème.

Ainsi, dans les prochaines étapes de votre croissance, vous devez vous poser la question de l’ouverture de votre système d’information et du partage de vos données…

Mais comment répondre à ces défis ?

Edouard Cante Directeur des Opérations chez Blueway

Faites parler les différents systèmes, en automatisant les échanges pour atteindre le temps réel.
Inutile de réinventer les normes ! Ce qui est important c’est de communiquer le plus largement possible. Cette initiative a vocation à démultiplier les échanges.

Pour autant il faut les standardiser, car il ne faut pas limiter cette démarche à la construction technique d’API, en oubliant la gouvernance associée.

L’esprit d’une API est d’être standardisée ! Sans gouvernance, cela reviendrait à créer autant d’interfaces qu’il y a de consommateurs de données. Cela irait à l’encontre des fondements de cette démarche.
La gouvernance d’API doit permettre la convergence de vos échanges de données au sein de votre système d’information, mais également comme point d’entrée unique pour l’extérieur.

Que doit proposer la solution à retenir ?

Edouard Cante Directeur des Opérations chez Blueway

La solution est donc d’avoir une plateforme :

  • Qui offre un portail d’API ; cela structure la relation entre l’extérieur et votre système d’information interne.
  • Qui standardise les API et dresse un cadre clair de responsabilité pour chacun ; cela assure la scalabilité du modèle
  • Mais également qui trace, maîtrise le « Qui, Quand, Quoi, Comment » ; permettant d’assurer la sécurisation de l’intégralité des échanges, tout en offrant la capacité de monétisation de la plateforme.

Bien sûr les bénéfices sont encore plus importants si cette plateforme orchestre les processus et les services internes de votre système d’information. Les échanges avec vos clients, fournisseurs et partenaires sont de nouveaux canaux de communication essentiels à votre business. Il faut les organiser, les industrialiser.

C’est un sujet de transformation de la gouvernance avant d’être un sujet technique !

Vous souhaitez échanger sur le SI de demain avec Edouard ? Prenez rendez-vous !

Gestion des données de référence : réussir son projet MDM

Dans un contexte d’internationalisation, les organisations sont amenées à vivre de grandes transformations, des réorganisations, des fusions complexifiant un Système d’Information déjà fragmenté. Pour mettre de l’ordre et rendre évolutif son architecture, les urbanistes informatiques ont donc bâti des référentiels dans une démarche SOA (data + processus) afin de permettre la gestion des données de référence.

Ces référentiels répondent également à des enjeux business :

  • De nombreuses réglementations autour de la donnée demande toujours plus de transparence et de justification
  • L’environnement compétitif impose de toujours avoir un temps d’avance par rapport à la concurrence et donc de pouvoir prédire, anticiper pour concevoir de nouvelles offres et satisfaire les clients ET les actionnaires
  • Les entreprises sont plus que jamais « customer-centric », ce qui implique de disposer de données à jour, pertinentes sur ses clients, de pouvoir les recouper et les partager sur différentes applications et à différents métiers en interne ou en externe.

Qu’est-ce qu’une donnée de référence ?

Les entreprises ont désormais les moyens de stocker une volumétrie de données impressionnante. Dans ce flot de data, certaines données traversent les processus métiers et sont de ce fait partagées au sein des grandes applications verticales de l’entreprise : les ERP (Entreprise Ressource Planning), les CRM (Customer Relation Management), les PLM (Product Lifecycle Management), les WMS (Warehouse Management System), les PIM (Product information management). Cependant limiter leur partage au sein de ces applications verticales nuit à la transversalité des informations dans l’organisation. Les processus métier réels ne s’arrêtent pas aux frontières des applications verticales !

La question à se poser est la suivante : quelles sont les données les plus importantes, les plus critiques mais aussi les plus pertinentes pour l’organisation ?

La notion de donnée de référence, donnée maîtresse ou data master est apparue en 2003 avec l’essor du Master Data Management (MDM).

Les données de référence peuvent être de diverses natures :

gestion des données de référence produit

Les données Produits comme dans le secteur du retail ou du manufacturing élargies à l’offre de services

pilotage des données de référence tiers

Les données Tiers liées aux clients et aux fournisseurs

management des données de référence de l’organisation

Les données sur l’organisation, les salariés

Gestion des informations financières de référence

Les informations financières

Une fois identifiées, l’enjeu est de créer un référentiel, un fichier maître centralisé afin de permettre une démarche d’amélioration continue de la qualité, la traçabilité des modifications et la reconstitution d’un référentiel à date.

5 conseils pour bien gérer vos données de référence

Avant de mettre en œuvre votre Master Data Management, il convient d’analyser les axes d’évolution de votre référentiel :

  • Finalité de la démarche
  • Niveau de complexité
  • Stabilité du système
  • Nature des objets manipulés

L’état des lieux doit également prendre en compte la volumétrie des données et leur criticité, les applications sources et cibles ainsi que les processus et règles métiers impactant la qualité des données.

Il s’agit ensuite de définir des règles de gestion et d’administration de ce référentiel à savoir qui valide les données, qui arbitre en cas de litige, quels sont les droits attribués à chacun et quelles sont les modalités de diffusion des informations contenues dans le référentiel.

Suivez maintenant ces 5 étapes pour bien mener votre projet de gestion des données de références :

1 – Mesurer la qualité des données de références

La qualité d’une donnée s’évalue en fonction de l’usage attendu avec trois approches possibles : l’approche orientée objectif, l’approche orientée traitement et l’approche orientée sémantique.

Pour mesurer la qualité de données maîtres, on s’attachera aux aspects suivants : le profilage, la complétude, la redondance et l’homogénéisation référentielle,

2- Trouver les bons indicateurs

Les indicateurs peuvent porter sur les performances (économies de saisie, meilleure productivité, accroissement des SLA, raccourcissement des cycles…) ou sur l’impact du MDM sur l’organisation du SI, l’implantation de nouvelles briques, la gestion des processus métier…

3 – Fixer un périmètre à la gestion de vos données de référence

Il est maintenant temps de de définir les grandes étapes qui vous mèneront à l’atteinte de vos objectifs. Pour chaque lot de votre projet, il sera important d’impliquer les métiers tout autant que le service informatique afin de valider la faisabilité tant en ressources humaines que technique :

  • Le nettoyage des données
  • L’importation et initialisation du MDM
  • L’interopérabilité du MDM avec les applications sources et cibles de votre SI.
  • La mise en œuvre et l’évolution du MDM

4 – Initialiser les données cibles

L’initialisation du référentiel constitue la première grande étape de la mise en œuvre. Il est possible de remplir ce référentiel au fil de l’eau, au fur et à mesure des entrées ou mises à jour des données, comme il est possible de l’initialiser en rentrant le plus grand nombre d’informations possibles dès sa construction.

Dans tous les cas, la création du référentiel nécessite :

  • La définition et la création de la base de données d’accueil
  • La création et l’instanciation des règles de contrôles et de validation lors de la création des enregistrements
  • La création des règles et dictionnaires de transcodage
  • Le chargement des données qui vont constituer le socle du référentiel

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

5 – Faire vivre son référentiel et prévoir son interopérabilité avec le SI

Le référentiel doit vivre, évoluer, être mis à jour de façon continu et devenir le silo de référence de l’entreprise. Il est donc important de bien définir :

  • L’instanciation des règles de contrôles et de validation lors des mises à jour
  • La mise en œuvre des règles d’historisations des enregistrements
  • La mise en place des règles de suppression
  • La mise en œuvre des politiques de sécurisation d’accès à l’information

Au-delà de ces quelques éléments, il convient de ne jamais perdre de vue qu’un projet MDM va manipuler un grand nombre de données, que les règles de référencement et d’historisation des données manipulées peuvent rapidement s’avérer génératrice de volumétries importantes.

Si votre système d’information le permet, vous pourrez constituer une architecture orientée service et publier des Web Services qui garantiront l’accès aux données ainsi que leur mise à jour.

Pour outiller votre gestion des données de référence, l’approche que nous vous proposons au travers du module de Data Governance de la plateforme Blueway se veut simple et pragmatique.

Vous souhaitez en savoir plus ? Échangez avec nos experts : la Data Governance nous passionne depuis toujours !

Au plaisir de discuter avec vous !

PIM DAM : intégration des solutions

Comme pour le PIM (gestion des informations produits) et le MDM (gestion des données de référence), il existe une vieille rivalité entre le PIM et le DAM (gestion des fichiers média). Et si les deux cohabitaient pacifiquement ? Quelle architecture SI faut-il mettre en place ?

Le PIM : le « must have » pour diffuser les informations Produits

Avant d’acheter un produit online ou en boutique physique, les consommateurs se renseignent en ligne en comparant les prix, les descriptifs techniques, la description du produit, les avis des utilisateurs, etc. La cohérence et la complémentarité des informations produits sont donc absolument nécessaires en termes de crédibilité de la marque et de confiance à son égard.

Pour alimenter les catalogues papier ou en en ligne, ainsi que les différents canaux de vente (site e-commerce, marketplaces, enseignes etc.), les marques et les retailers se sont munis d’un PIM (Product Information Management). Cet outil gère donc des informations qui appartiennent à la grande famille des données de référence (LIEN vers article données de référence) et est devenu un incontournable dans le e-commerce. Il permet notamment de :

Logiciel PIM : libellés des articles

Faciliter la gestion des libellés des articles et de leur traduction, des images et des vidéos pour chacun des produits et des canaux de distribution

Logiciel PIM : catalogue

Accélérer la diffusion de catalogues papier ou électroniques

Logiciel PIM : recherche de produits

Améliorer la navigation et la recherche de produits sur les différents sites de l’entreprise.

Les PIM sont par nature des applications peu communicantes, il est donc difficile d’envisager son utilisation à des fins de référentiel, puisque le principe fondamental d’un référentiel est qu’il puisse dialoguer et se synchroniser régulièrement avec les autres applications métiers. Le PIM peut s’utiliser, seul, lorsque la base produit est très stable et correctement qualifiée, peu évolutive et ne nécessite pas de synchronisation avec d’autres applications.

Lorsque les problématiques de référentiels uniques sont plus complexes : problème de data quality, d’unicité ou de dissémination des données en entrée de votre PIM, gestion des cycles de vie ou de transcodages complexes, le MDM devient alors incontournable.

MDM versus PIM : frères ennemis ou Dream Team ?

Le DAM : l’allié du PIM pour la gestion des médias

En parallèle, la multiplication des ressources média (photos, logos, images 3D, vidéo, audio, PDF etc.) déployées tant en interne qu’en externe (emailing, sites intranet et internet, press room, etc.) impose une gestion rigoureuse par le biais d’outils dédiés. Le DAM (Digital Media Management) centralise l’ensemble de ces médias afin de les stocker, de gérer leur cycle de vie, de les indexer, de les rechercher plus facilement et de les diffuser.

Qu’en est-il pour la diffusion de médias liés aux produits ? Un PIM ne suffit-il pas ? Le DAM est-il nécessaire ?

Les catalogues et les sites marchands n’échappent pas à la règle ; ils se sont eux aussi enrichis en médias. Si les bibliothèques des PIM lient les médias aux produits, elles sont en revanche sous dimensionnée pour décrire de manière détaillée et spécifique les fichiers ressources. Sans ces métadonnées, il sera difficile de sélectionner un media en fonction de l’usage attendu. Au-delà des descriptions objectives, un DAM est en mesure d’inclure des descriptions subjectives (ambiances, sentiments, etc.).

Ainsi, le DAM pourra soit alimenter le PIM effectuant une copie des média (ce qui pose question sur la question du fichier de référence et donc de la fraicheur des médias disponibles) soit en intégrant une URL vers les médias.

PIM et DAM : comment les faire communiquer ?

Bien que certains éditeurs proposent des solutions mêlant PIM et DAM, mutualiser toutes les fonctions au sein d’une même plateforme ne parait pas concevable tant les logiciels ont leur périmètre fonctionnel et leurs processus métiers propres. Il est néanmoins possible de rationnaliser l’architecture du SI et de les faire communiquerà l’aide d’un ESB.

En se positionnant comme bus applicatif au sein du Système d’Information, l’ESB va permettre de faire circuler l’information tout en garantissant la sécurité et la fiabilité des flux. Grâce à une structure d’échange normalisée, PIM et DAM vont communiquer sans besoin d’interfaces directes, et vont aussi plus largement s’intégrer avec les autres applications du SI !

En complément, la création d’API (interface de programmation d’application) permettra aussi d’ouvrir vers l’extérieur ces solutions de gestion des données produits pour proposer des services additionnels, faciliter la communication avec les SI des partenaires, clients, fournisseurs, etc.

Cependant, la création de ce type d’architecture nécessite une gestion centralisée des API. Le module API Governance dédié à l’API Management que nous proposons sur notre plateforme permet de centraliser leur gestion en partageant les informations aux utilisateurs et aux développeurs :

APIM et PIM DAM

Un portail centralisé et dédié au monitoring de votre parc API.

La gestion des API comme support pour les PIM DAM

Gestion des abonnements de vos clients, fournisseurs ou partenaires à vos API.

Product Information Management et Digital Media Management

Surveillance de la consommation et la santé technique de vos API .

Portail APIM pour les données produits

Un portail dédié pour les abonnés.

Portail APIM développeurs

Un portail pour les développeurs.

Grâce à ces outils, vos applications de PIM et DAM  pourront jouer leur rôle en bénéficiant d’une synchronisation des données produits et des données média !

Vous souhaitez en savoir plus ? Contactez-nous : nos experts se feront un plaisir de débattre de ces sujets avec vous !

Au plaisir de discuter avec vous !

Data quality

La data quality fait partie des enjeux majeurs pour les organisations. En effet, des données de mauvaise qualité peuvent coûter cher ; une étude menée par MIT Sloan indique que la négligence sur la qualité des données peut coûter de 15 à 25 % du chiffre d’affaires.

Ces pertes peuvent se chiffrer en opportunités manquées en lien avec de mauvaises décisions ou un déficit d’image mais également en sanctions légales et en temps passé pour traquer, nettoyer et corriger les données erronées.

A l’inverse, des données de qualité permettent aux entreprises d’améliorer leurs performances opérationnelles, de satisfaire la clientèle et d’être plus compétitives en réorientant rapidement leur stratégie d’entreprise.

Quels sont les critères de qualité d’une donnée ?

Selon  PWC, Micropole, EBG, « la qualité des données désigne l’aptitude de l’ensemble des caractéristiques intrinsèques des données (fraîcheur, disponibilité, cohérence fonctionnelle et/ou technique, traçabilité, sécurisation, exhaustivité) à satisfaire des exigences internes (pilotage, prise de décision…) et des exigences externes (réglementations,…) à l’organisation ».

Une donnée ne possède pas une qualité intrinsèque. Sa qualité ne peut être évaluée qu’à partir du moment où l’on sait ce que l’on veut en faire : Quel est l’objectif final ? Quel sera son traitement ? Quelle signification sémantique donne-ton à l’information ? Autrement dit, la qualité se définit en fonction de l’usage attendu par ses usagers.

Cela suppose d’avoir une connaissance à la fois globale et fine des processus métiers qui traversent l’ensemble de l’organisation et des standards en vigueur pour permettre l’échange de données en interne et en externe.

Le RGPD pose des limites bien précises aux traitements des données personnelles, sur tout le cycle de vie de la donnée. Une donnée stockée ou utilisée hors cadre réglementaire ne pourra donc pas être considérée comme une donnée de qualité bien qu’elle puisse apporter de l’efficience et de la valeur à l’organisation.

A partir de ces points de considération, la qualité des données peut être jaugée à l’aune de différents indicateurs : son profil, son exactitude, sa complétude, sa conformité, son intégrité, sa consistance, sa disponibilité, son applicabilité, son intelligibilité, son intégration, sa flexibilité, sa comparabilité, etc. Les critères sont on ne peut plus variés !

Pourquoi faut-il mettre en place un Data Quality Management ?

La démarche data quality ne se limite pas à charger des données correctes dans les systèmes d’information ; elle consiste aussi à se débarrasser des données erronées, corrompues ou dupliquées.

Si les erreurs peuvent être techniques, elles sont le plus souvent humaines et organisationnelles et surviennent à différentes étapes du cycle de vie de la donnée et à différents endroits du SI :

  • Lors de la collecte par une mauvaise saisie intentionnelle ou non intentionnelle
  • Lors du partage par la création de plusieurs versions d’une donnée
  • Lors de l’export par des règles mal définies en amont ou un problème de compatibilité
  • Lors de la maintenance par un mauvais encodage

La gestion de la qualité des données ou Data Quality Management (DQM) est la capacité à fournir des données fiables répondant aux besoins métiers et techniques des utilisateurs. Il s’agit donc de transformer des données de qualité en renseignements utiles.

La gestion des données dans une démarche d’amélioration continue de la qualité des données nommée TDQM1 peut se baser sur les 4 phases de la roue de Deming (définir, réaliser, contrôler, agir). Mais plus précisément, on peut recenser 6 étapes :

  1. Profilage des données : étude de la structure des tables, la relation des tables entre elles, la pertinence des données et la validité de formats
  2. Nettoyage : identification des données non qualitatives et correction au sein de la base
  3. Homogénéisation : standardisation et harmonisation des données sous une forme partagée permettant l’interopérabilité mais également la bonne compréhension par toutes et tous.
  4. Dédoublonnage et déduplication : suppression des doublons au sein d’un même fichier et identification des informations qui apparaissent dans plusieurs fichiers de l’entreprise pour n’en conserver qu’une seule version
  5. Enrichissement : amélioration de la complétude des données corrigées et validées.
  6. Reporting : analyse et pilotage de l’évolution de la qualité des données à l’aide de tableaux de bord.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet MDM.

Quels outils pour améliorer la qualité de vos données de référence ?

Si la constitution d’une équipe pluridisciplinaire– data quality manager, architecte de données, data scientists, data steward, data protection officer– est indispensable pour mener à bien votre démarche de data quality, n’oubliez pas de choisir les bons outils !

Chez Blueway, nous avons la conviction que data et process sont intimement liés. C’est pourquoi le module Process Governance de notre plateforme Data Foundation vous permet de comprendre vos processus métiers et les usages qui sont en lien avec la donnée.

Pour gérer vos données maîtres clients/fournisseurs, produits et financières – le module MDM , Data Governance, associé aux autres modules de la plateforme, vous permet de superviser et d’automatiser toutes vos actions autour des données : collecter, transporter, enrichir, déverser… Pour améliorer la qualité de vos données, vous pourrez modéliser vos référentiels, créer vos indicateurs et assurer la pertinence, l’unicité et la traçabilité des informations, tout au long de leur cycle de vie !

Vous souhaitez en savoir plus ? Échangez avec nos experts : la data quality nous passionne depuis toujours !

Au plaisir de discuter avec vous !

Choisir un logiciel workflow : quels critères retenir ?

Le flux de travail est la représentation graphique ou la modélisation d’un processus métier réalisée avec un logiciel de workflow.

L’enchainement des tâches ainsi que les interactions entre les acteurs internes ou externes et le SI peut être figé ; on parle de workflow procédural. Lorsqu’il est dynamique, c’est-à-dire lorsqu’il s’adapte à des événements ou des décisions collaboratives ; on parle alors de workflow ad hoc. Dans les deux cas, le workflow peut être utilisé pour automatiser un processus et/ou pour aligner un logiciel avec les besoins métiers.

Workflow & BPMN 2.0 : en route vers l’automatisation

Pour permettre un langage commun entre les différents métiers et la DSI, la norme BPMN (Business Process Model and Notation) est un standard couramment utilisé pour modéliser les processus. Il comprend par exemple des symboles structurés, des diagrammes de processus, de collaboration, de conversation et de chorégraphie, constituant la « partition » d’un processus.

Depuis 2011, la version 2 du standard ISO/CEI 1951 a fait évoluer ce langage vers un schéma d’échange basé sur XML permettant la conversion de modèles exécutables en langage BPEL, destiné à automatiser et implémenter des processus applicatifs.

La majorité des logiciels BPM a désormais adopté ce standard pour modéliser et exécuter les processus métiers.

Un logiciel de workflow, pour quoi faire ?

Le design de workflow avec un logiciel BPM est la première étape pour automatiser certains processus au sein de l’entreprise : les tâches à faible valeur ajoutée et répétitives mais également des séries de tâches dites « intelligentes » qui peuvent être désormais traitées grâce à l’IA et au Machine Learning, avec le concept de RPA.

L’automatisation par workflow fait succéder les tâches, les données, les échanges d’un processus dans un ordre bien défini par des règles.

Cette orchestration permet d’améliorer le circuit de validation et le respect des délais en partageant à chaque intervenant du processus l’information nécessaire à la bonne exécution de ses tâches. Grâce à la traçabilité des échanges, les managers peuvent également mesurer la performance et identifier les éventuelles difficultés.

Trop souvent, les workflows sont gérés “à la main » dans le code, ce qui rend la maintenance délicate. Un moteur de workflow combiné à un moteur de règles permet ainsi d’exécuter, par un exécutable BPEL par exemple, la définition des processus et de les interfacer avec des applications ou d’autres systèmes de gestion de workflow. Il est alors possible d’optimiser régulièrement ces processus et de les implémenter rapidement et correctement.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Quelle différence entre un moteur de workflow et un moteur de règles ?

Le moteur de workflow et le moteur de règles, outils indispensables pour l’automatisation de processus complexes, sont souvent confondus. Pour simplifier, un moteur de workflow est un routeur qui permet d’exécuter les différentes instances du workflow de manière séquentielle ou conditionnelle (cheminement à embranchements) en fonction d’un jeu de règles. L’outil peut gérer la définition de ce dernier dès lors que les règles sont simples et peu nombreuses : opérateurs booléens, champs de données du processus, valeurs saisies, etc.

Dans le cas de routages plus complexes, le moteur de workflow peut se connecter à un moteur de règles qui sera en mesure de gérer un nombre important de règles sophistiquées, changeantes ou saisies en langage naturel. Le moteur de workflow peut être considéré comme le convoyeur et le moteur de règles comme l’aiguilleur.

Un logiciel de workflow adhérant au SI : un critère important

L’étude d’un processus technique ou hybride conduit à l’analyse d’un grand nombre de fonctionnalités, de méthodes, d’applications et de services de l’entreprise.

C’est pourquoi, de la modélisation des processus à leurs traitements, il est très important de s’assurer que la solution de workflow « adhère » au SI. Il faudra veiller à ce que votre logiciel assure une interopérabilité et une normalisation des données et dispose de connecteurs techniques (Webservices, bases de données, fichier textes et XML, LDAP, mail…) et métiers (applications de type ERP, CRM, SCM…) permettant de réduire les temps de développement et d’intégration.

Pour cela, l’architecture fonctionnelle doit être bâtie autour d’un ESB . C’est le bus applicatif qui sera garant de l’acheminement des échanges et de la persistance des messages échangés.

Comment choisir votre logiciel de workflow ?

Si les outils du marché se valent souvent en termes d’ergonomie, un bon logiciel de workflow doit comprendre les fonctionnalités suivantes en vue d’automatiser efficacement et à moindre coût vos processus :

  • Un studio de design de workflow incluant des outils de création ou des modèles de processus hybrides (interaction homme-machine) utilisant la norme BPMN 2.0
  • Le WYSIWYG pour bâtir à la souris des écrans utilisateurs de saisie, des IHM, des formulaires, des portails en CSS…
  • Des outils de simulation et de mise au point pour tester, débuguer, etc.
  • Des modules « accélérateur » du BPM (CEP, BAM, MDM, Mashup, BRMS…)
  • Des fonctions d’orchestration des flux et d’automatisation avec le RPA
  • Des fonctions de routages dynamiques ainsi qu’une supervision des traitements : gestion des alertes (mail, sms,), gestion des délégation (rôles et responsabilités), traçabilité
  • Un portail collaboratif de suivi pour chaque intervenant : visibilité sur les tâches qu’il doit réaliser ou qu’il a initiées ainsi que sur les KPI
  • La gestion du référentiel d’organisation : fiches processus, procédures, notes d’organisation, modes opératoires, notices, etc…

Vous souhaitez en savoir plus ? Échangez avec l’un de nos experts de notre expertise sur les logiciels de workflow !

Au plaisir de discuter avec vous !

Business Process Management : méthodologies et outils BPM

Si le Business Process Management – ou la gestion de processus métiers en français – est avant tout une démarche, il nécessite des moyens technologiques permettant à la fois de modéliser finement les processus métiers et de passer à leur exécution organisationnelle.

Jusqu’à il y a encore une dizaine d’années les projets de BPM étaient surtout réservés aux grandes entreprises. Mais aujourd’hui, la maturité des technologies et l’expérience terrain acquise, permettent à tout type d’entreprise de mener un projet de BPM dans des délais raisonnables et d’en tirer profit rapidement.

Un projet BPM est avant tout un projet d’entreprise qui sert la stratégie. Avant de lancer ce type de projet, il est donc fondamental de vous poser la question : en quoi l’optimisation des processus va-t-elle améliorer l’offre et la satisfaction client ?

Le Business Process Management, qu’est-ce que c’est ?

Le Business Process Management est une démarche qui permet d’analyser les processus par leur modélisation afin de fluidifier et d’optimiser les procédures, c’est-à-dire d’attribuer de nouveaux moyens et services, pour gagner en cohérence, en efficacité opérationnelle et en gains financiers.

Les processus métiers sont constitués d’une série de tâches et d’actions en vue d’obtenir un résultat déterminé. L’enchaînement de ces étapes peut suivre différents scénarios d’interaction et réquisitionner des ressources variables qui peuvent être soit humaines soit techniques. Un même processus peut donc adopter différentes procédures, plus ou moins efficaces.

Les processus traversent généralement plusieurs services de l’entreprise. Un exemple représentatif est la gestion de la relation clients : le processus concerne à la fois les métiers du marketing, du commercial et de la relation client (service après-vente). Chaque métier va décrire les procédures depuis son point de vue sans forcément connaître ce qui se passe avant ou après son action. Il est donc absolument nécessaire de faire dialoguer les métiers, la DSI et la direction générale en adoptant un langage commun.

La norme BPMN (Business Process Model and Notation): un standard qui facilite la collaboration et l’exécution

La norme BPMN 2.0 (Business Process Model and Notation 2.0) est un standard de modélisation reconnu internationalement qui répond à ce besoin de langage commun.

Ce langage simple a l’avantage de favoriser la collaboration et de coordonner visuellement les séquences logiques d’actions et de messages qui existent entre les différents métiers : entrées/sorties, tâches automatiques, tâches manuelles, templates à appliquer pour ces dernières, sous-processus de traitements appelés dans le processus maître, routages et contraintes des différentes tâches, rôle de chaque groupe acteur et utilisateur.

Reposant sur des règles mathématiques, il peut également être traduit facilement en différents langages d’exécution BPEL Business Process Exécution Langage ; un point idéal pour concevoir rapidement des webservices.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Les deux approches d’optimisation des processus

La mise en place d’un ERP (Enterprise Ressource Planning), d’un CRM (Customer Relationship Management) ou d’un WMS (Warehouse Management System), peut représenter une occasion d’optimiser ses processus. En fonction de la culture de votre entreprise et de sa taille, vous pourrez procéder de deux manières différentes :

La première approche est orientée performance : en se basant sur les bonnes pratiques et des méthodologies telle que le SCOR, Lean et SIX Sigma, elle consiste à refondre un processus en faisant table rase du passé ou du moins abstraction de l’existant. Cette approche peut provoquer des chocs culturels et une résistance au changement. Elle peut également être très lourde pour le SI. Aussi, il convient de définir un schéma directeur précisant les processus et leur optimisation.

La deuxième approche est orientée amélioration continue : elle se concentre sur l’analyse des processus existants, sans remise en cause systématique afin de les fluidifier petit à petit. Elle garantit une mise en œuvre beaucoup plus souple et rapide via des méthodologies d’amélioration itératives. On évite ainsi les chocs culturels au travers de retours sur investissements mesurables et immédiats. Néanmoins, les temps de mise en œuvre sont plus longs pour atteindre les mêmes résultats que dans la première approche.

Quels outils de Business Process Management pour accélérer l’optimisation des processus métiers ?

Aujourd’hui, les processus, dans leur très grande majorité, traitent des informations et sont centrés autour de données. L’amélioration continue impose donc de s’intéresser autant à l‘évolution du processus sur le terrain qu’à à la manipulation des données.

Une fois les processus décrits et modélisés, vient la mise en application de leurs traitements. La plupart des moteurs d’exécution intègrent des modules plus ou moins évolués qui assurent des fonctionnalités de transport et de transformation de l’information ainsi que des connecteurs qui garantissent un accès aux données sources et cibles quel que soit leur support.

Pour déployer une stratégie de Business Process Management ou de Process Governance, il nous parait indispensable chez Blueway de combiner plusieurs briques :

  • Un atelier de design de workflows hybrides respectant la norme BPMN2
  • Un ESB (Enterprise service bus) pour identifier les étapes perfectibles puis automatiser certaines séquences en lien avec les applications du SI
  • Un MDM pour prendre en charge de manière centralisée toutes les problématiques complexes de gestion de la qualité et de traçabilité des données.

De nombreux modules fonctionnels peuvent être combinés pour accélérer l’optimisation des processus métiers. Parmi eux, le BAM (Business Activity Monitoring)  permet de contrôler et mesurer les niveaux de services fonctionnels, techniques, organisationnels de manière proactive et le CEP (Complexe event processing) qui permet de gérer un nombre de règles importantes et variables.

Vous souhaitez en savoir plus ? Prenez contact avec l’un de nos experts : la BPM nous passionne depuis toujours !

Au plaisir de discuter avec vous !

Créé en 2008, le Club Décision DSI est le 1er Club DSI Français indépendant dédié aux décideurs informatiques.
Le club a son blason, sa philosophie, ses règles basées sur le partage et la connaissance. Il s’agit d’un lieu de rencontre où les membres DSI partagent expérience et entraide.

Constitué d’un réseau indépendant et privé de 1 350 décideurs informatiques : CIO, DOSI, DSI, RI et RSI, le Club DSI identifie chaque année 30 sociétés innovantes afin de les présenter aux adhérents du Club.
Ce club est constitué de 14 DSI Ambassadeurs de leurs secteurs d’activité, une Présidente : Véronique Daval et un Vice-Président : Julien Daval.

Le Club DSI organise 15 événements sur l’année, dont 4 majeurs :

  • Les Rencontres de l’Innovation Technologique, le 12 mars 2020
  • Le Consortium des DSI, le 17 juin 2020
  • Les Rencontres de l’Innovation Technologique, le 23 septembre 2020
  • Le DSI Meeting suivi du dîner de Gala, le 26 novembre 2020

Nous sommes heureux de pouvoir vous confirmer qu’en 2020, Blueway a été sélectionnée pour la deuxième année consécutive par les DSI Membres du Bureau.

Nous participerons aux trois événements suivants :

  • Les Rencontres de l’Innovation Technologique
  • Le Consortium des DSI
  • Le DSI Meeting suivi du dîner de Gala,
Logiciel RPA (Robotic Process Automation)

Introduction : résumé du concept de RPA (Robotic Process Automation)

Le concept de Robotic Process Automation ou Automatisation Robotisée des Processus correspond à l’automatisation, si possible « intelligente », de séries de tâches et d’actions. Par « intelligente » , on entend que ce sont des tâches qui requéraient auparavant une intervention humaine de par l’analyse nécessaire à leur réalisation. Le concept de RPA est souvent associé à l’IA et au Machine Learning.

Les actions automatisées peuvent être de tous types : calculs, manipulations de données, traitements de transactions, échanges avec d’autres applications, interrogation de bases de données, saisies d’informations… et liées à des domaines variés : informatique, achat, RH, finance, réclamation, facturation, support client…

Le RPA, un palier supplémentaire du BPM (Business Process Management)

Le RPA n’a pas le monopole de l’automatisation. Mettre en place un logiciel BPM, c’est déjà rentrer dans le monde de l’automatisation des processus !

Et pour cause : dans la pratique, il existe plusieurs cercles concentriques de technologies ajoutant à chaque fois des capacités supplémentaires d’automatisation des tâches. L’objectif final est que l’humain ne reprenne la main qu’aux moments cruciaux en ayant une vision complète du contexte et une aide décisionnelle.

Ainsi, le Robotic Process Automation apporte une vraie valeur lorsqu’il intègre une couche d’intelligence artificielle et plus particulièrement de Deep Learning : analyse de texte, intelligence conversationnelle, décisions basées sur l’apprentissage machine…

C’est pourquoi comprendre les différents niveaux d’automatisation est essentiel pour bien appréhender les concepts et placer la bonne solution sur le bon besoin ! Voici quelques exemples autour du cas d’usage du traitement des e-mails entrants :

  • Avec un BPM « basique », le logiciel va détecter l’arrivée d’un e-mail et initier un traitement en conséquence. La première action du processus sera par exemple de lancer une tâche humaine pour arbitrer sur la criticité de l’e-mail et adapter la personne vers qui le rediriger.
  • Si on ajoute un moteur de règles, on peut déjà aller beaucoup plus loin qu’un BPM simple. L’application va par exemple pouvoir définir un traitement différent en analysant si elle connaît l’expéditeur en lien avec la base données (client important qui représenterait plus de 20% du chiffre d’affaires, prospect, historique particulier…), selon le type de pièces jointes, leurs métadonnées, les termes apparaissant dans l’objet de l’e-mail… C’est une approche d’automatisation mécanique, sans IA, mais qui répond à la majorité des cas d’usage et permet de remplacer certaines tâches humaines comme le routage dans le cas présent.
  • L’intégration en supplément d’une dimension IA pourrait permettre dans ce cas d’usage à l’application d’identifier l’utilisation de termes très proches du champ sémantique légal et de décider en autonomie de l’envoyer au service juridique. L’application pourrait aussi interpréter le contenu de l’e-mail et apporter directement une première réponse au contact (déterministe ou générée automatiquement). Dans ces deux cas,  il ne s’agit plus d’un simple mécanisme automatique, mais de l’ajout d’une dimension IA avec une analyse et une prise de décision.

Votre ROI repose sur le choix de la bonne solution d’automatisation pour le bon cas d’usage

Ces trois cas d’exemple prouvent que suivant l’usage, la solution la plus adaptée n’est pas toujours la même !  En effet, ajouter de l’Intelligence artificielle dans les processus demande un investissement fort. Les bénéfices peuvent être très importants pour des processus complexes et nécessitant des analyses approfondies, cependant c’est loin d’être le cas dans tous les process ! Pour de nombreuses étapes et actions, des mécanismes simples ou tout simplement l’intervention d’un humain peut être plus adapté et ROIste.

De plus, le besoin d’automatisation intelligente peut parfois être évité en anticipant les problèmes ! Prenons l’exemple d’une collectivité qui dispose de centaines de milliers de factures en retard et qui souhaite mettre en place une solution de Robotic Process Automation pour les scanner, les analyser, les stocker et les traiter automatiquement.

Oui, une application de RPA peut permettre de répondre à cet enjeu, avec un investissement non négligeable en ressources et en temps. Cependant, anticiper en dématérialisant les factures au travers d’un portail de saisie pour les fournisseurs aurait permis d’alléger le travail des utilisateurs et de mettre en place des mécanismes simples basés sur une analyse factuelle des données. Tout cela sans mettre en place une usine à gaz a posteriori.

Tout est une histoire d’adaptation de la réponse à l’enjeu et d’anticipation ! Une gouvernance des données efficace associée à une solution BPM et des règles répond à la majorité des enjeux d’automatisation. Pour les autres processus nécessitant une vraie intelligence, une solution RPA avec des briques d’IA et de Machine Learning a alors toute sa place et apporte une vraie valeur ajoutée.

De la théorie aux retours d’expérience concrets, toutes les clés pour réussir votre projet BPM.

Quels sont les prérequis pour déployer une démarche de Robotic Process Automation ?

Avant tout, vous avez besoin de processus clairement définis. C’est-à-dire de prendre conscience des informations et des données qui transitent dans les flux, et de cartographier les processus en conséquence. Ensuite seulement, on peut définir l’architecture informatique à mettre en œuvre et donc positionner la solution la plus adaptée à chaque étape : que celle-ci soit un logiciel de BPM simple, un automatisme au travers de règles, du RPA incluant une dimension IA… ou tout simplement une interaction humaine car l’humain doit rester au cœur des décisions !

Le risque est sinon de chercher à automatiser un processus qui n’est pas structuré ou de mettre de l’IA où elle n’est pas nécessaire, ce qui n’apportera aucun bénéfice. L’orchestration des processus et des échanges doit rester le socle !

Conclusion : Blueway & le Robotic Process Automation

Le RPA est donc un palier supplémentaire du BPM, qui peut être franchi aisément avec le bon partenaire.

Avec Blueway, vous disposez d’une des plateformes d’intégration et de gouvernance de données et de processus les plus puissantes et les plus complètes du marché. Celle-ci permet, entre autres, de modéliser et d’automatiser les processus au travers de règles tout en assurant l’administration, l’exploitation et l’optimisation de leur déroulement.

De plus, grâce à l’ouverture de la solution, vous avez la possibilité de vous connecter au travers d’APIs avec les outils d’IA les plus adaptés à chaque enjeu et selon votre secteur d’activité. En effet, les solutions d’IA et de Machine Learning sont spécialisées selon les besoins, les domaines…

Vous ajoutez ainsi des briques d’IA à vos processus de manière pragmatique et ROIste pour rentrer dans une vraie démarche RPA. Ces technologies d’intelligence artificielle fonctionnent dans la continuité du BPM et s’intègrent ainsi en toute transparence au sein du système informatique existant.

En unifiant le meilleur des deux approches, Blueway assure une mise en œuvre rapide qui optimise votre retour sur investissement et maximise les gains d’efficacité en concentrant l’implication des humains sur les tâches à forte valeur ajoutée.

Vous souhaitez en savoir plus ? Prenez contact avec l’un de nos experts !

Au plaisir de discuter avec vous !

Le concept d’entreprise étendue est fondé sur l’importance de la collaboration entre tous les acteurs d’une chaîne de valeur (ex : co-conception de produits, assemblage de systèmes complexes, supply chain, fournisseurs/distributeurs…).

Derrière ce terme apparu dans les années 1990 et très à la mode ces dernières années, on retrouve d’autres concepts : écosystème fournisseurs, cocréation, système en réseau…

Mais, pour être concret, il s’agit de la mise en réseau et de l’intégration de tous les acteurs de la chaine : clients, fournisseurs, partenaires… Le lien est alors direct avec les enjeux d’ouverture du Système d’Information ! En effet, les applications sont passées de moyens d’accès au contenu aux principaux canaux d’interaction entre une entreprise et ses clients, employés, fournisseurs et partenaires.

 Toutefois, si le besoin d’ouverture est bien appréhendé par les entreprises, définir une stratégie d’intégration efficace avec son écosystème est beaucoup moins évident ! C’est pourtant le socle de l’entreprise étendue. Stabilité, temps réel, scalabilité, standardisation, sécurité, gouvernance, monitoring… : cette stratégie d’ouverture est directement liée au développement de l’entreprise et à l’évolution de ses business models.

ESB & APIM : les deux facettes de la stratégie d’intégration

La stratégie d’intégration avec son écosystème repose sur deux briques complémentaires :

Si on peut voir des similitudes au niveau des solutions entre un ESB et la gestion des API, cela ne signifie pas que l’un peut jouer le rôle de l’autre mais plutôt qu’ils sont les deux faces d’une même pièce.

D’un point de vue des solutions à implémenter, il s’agit bien de deux étapes complémentaires, chacune avec un objectif précis :

Stratégie d’intégration d’un ESB

ESB

L’ESB ou Enterprise Service Bus peut se définir comme un ensemble d’outils qui sécurise les échanges entre les sources et les cibles d’un système d’information. Le composant central d’un ESB peut être représenté par un canal permettant de faire circuler l’information entre les applications, le “bus applicatif”.

Stratégie d’intégration de l’API Management

APIM

L’API Management a pour but de gérer et d’industrialiser l’exposition d’API (Application Programming Interface). C’est-à-dire la publication, promotion, supervision des échanges entre un service fournisseur et un service client. L’API Management fournit des portails qui permettent de suivre l’utilisation des API exposées.

ESB et API Management :
deux réponses complémentaires pour soutenir votre transformation business

Les questions clés à se poser pour structurer sa stratégie d’intégration ESB APIM

Dès lors que les deux solutions ont été identifiées et leurs rôles respectifs définis, la question est de savoir quelle est la stratégie d’intégration à mettre en place avec son écosystème !

Il n’existe pas de stratégie d’intégration parfaite qui conviendrait à toutes les entreprises. De fait, elle diffère suivant l’importance du partage d’informations au sein de son business model et l’évolution des échanges et des services avec son écosystème. Les considérations métiers doivent primer sur les contraintes techniques !

Plusieurs questions permettent ainsi de définir un premier cadre à sa stratégie d’intégration ESB APIM :

  1. Que souhaitez-vous exposer, à qui et avec quels objectifs ?
  2. Quels sont vos besoins métiers engendrés par votre business model au niveau des flux d’informations entrants et sortants? Il s’agit de confronter les flux et son business model afin de définir les services nécessaires et la consommation cible.
  3. Quels sont les niveaux de sécurité et de contrôle nécessaires ?
  4. A quelle vitesse faudra-t-il étendre l’intégration ? Quelle est la scalabilité attendue de chaque service ?
  5. Quel est votre niveau de granularité souhaité dans l’ouverture des services ? Y a-t-il des différences d’accès dès le démarrage (ex : entre les 10 clients premiums et les autres) ?
  6. Quelle est la maturité de votre écosystème ? Les fournisseurs vont-ils devoir faire un effort pour standardiser la fourniture de leurs données ? En effet, le développement de votre stratégie d’intégration et sa scalabilité sont aussi conditionnés par la capacité de votre écosystème à s’y impliquer.
  7. Est-il nécessaire de définir en amont des processus avec vos partenaires ? Dans certains cas, comme l’exposition de données (par exemple la fourniture de données de catalogue) ce n’est pas requis, dans d’autres cas plus complexes, ils sont essentiels !
  8. Quelle est la nature du partage d’informations ? Est-on dans une logique de partenariat ? Fournit-on des services gratuits ou payants ?

Conclusion : vos objectifs métiers doivent piloter votre stratégie d’intégration ESB APIM

Si, d’un point de vue business, ces possibilités d’intégration représentent une transformation de fond qui ouvre de multiples portes, d’un point de vue IT il s’agit surtout d’étendre la stratégie orientée service de son SI interne à son écosystème. Dans son principe la démarche est donc aussi évidente : éviter de multiplier les connexions point à point entre les applications.

Certes, il y a donc quelques sujets techniques (versioning d’API, token de sécurité, DMZ…), mais avant tout c’est la transformation de votre métier qui doit être à la source de votre stratégie d’intégration et d’ouverture !

Vous souhaitez partager des REX autour de la stratégie d’intégration ? Échangez avec nos experts !

Au plaisir de discuter avec vous !