L’Agence Nationale de sécurité des systèmes d’information (Anssi) constate dans son dernier panorama de la cybermenace 2023 que le nombre total d’attaques par rançongiciel portées à sa connaissance est supérieur de 30% à celui constaté à la même période en 2022. Au niveau mondial, l’inflation serait même de +112% pour ce type de cyberattaques. Plus inquiétant encore, COMCyberGEND, ou Commandement de la gendarmerie dans le cyberespace, prédit que les JO de Paris 2024 pourraient générer plus de 4 milliards de cyberattaques !
Le volet cybersécurité est donc devenu stratégique. Car à mesure que les organisations intègrent des solutions technologiques pour assurer la gouvernance et la circulation de leurs données, à l’image des bus applicatifs (ESB), des plateformes de gestion des API (APIM) et des systèmes de gestion des données de référence (MDM), de nouvelles nécessités se font jour. Par exemple, celles de posséder une cartographie précise de son système d’information (SI) et une gestion claire de ses processus (BPM pour Business Process Management) pour assurer l’efficacité opérationnelle. Mais pas seulement !
L’intégration de ces technologies joue également un rôle clé dans une stratégie de cybersécurité en donnant une visibilité complète sur les flux des données, et en permettant une gestion proactive des risques associés à leur traitement et à leur stockage. Édouard Cante, Directeur Général Adjoint, nous démontre pourquoi ces technologies structurées « en couches d’oignons » apportent une réponse convaincante aux enjeux de cybersécurité.
Dans le domaine du traitement de la donnée, pourquoi l’ESB et l’APIM participent à la cybersécurité ?
C’est souvent dans les « angles morts du Système d’Information » qu’une organisation est attaquée. Il suffit d’ailleurs d’observer les cas de cyberattaques connus pour s’en convaincre. Et c’est logique, dans un contexte de cybersécurité, il est beaucoup plus facile de détecter une menace (et d’y répondre) si l’ensemble des processus bénéficient d’une supervision efficace. Ainsi, disposer d’un environnement centralisé dans lequel sont développés des traitements de données permet d’industrialiser (entre autres) des chaînes de logins, la lisibilité et la maîtrise sont garanties. De cette façon, la moindre anomalie est immédiatement détectée, et la suspicion d’une cyberattaque versus un incident technique est rapidement levée. Cette « philosophie ESB » limite donc grandement les angles morts, et elle est matérialisée par une plateforme outillée, standardisée et supervisée comme Phoenix.
L’exposition des données représente également une surface critique, et c’est la partie API Management (APIM) qui va permettre de garder le contrôle de cette exposition. Et notamment de gérer la traçabilité, un élément trop souvent sous-estimé dans un contexte de cybersécurité. Car sans traçabilité il n’est pas possible de réellement comprendre et diagnostiquer un événement passé et d’anticiper le futur. Il faut également garder en tête qu’un problème de sécurité peut survenir sans effraction (par l’utilisation d’une « porte autorisée » et d’une mauvaise règle réseau par exemple). Des solutions EPDR (Endpoint Protection Detection & Response) seront alors utiles, car elles ne s’appuient pas sur une base de données virales, mais scannent les systèmes et les serveurs pour détecter « des choses anormales ». Et c’est avec une démarche heuristique, du monitoring et de la traçabilité des processus qu’il sera possible d’observer une activité suspecte, et de remédier à un éventuel problème de sécurité.
Interopérabilité entre processus et données: le cœur de l’agilité d’une entreprise
Pourquoi la cartographie des données et le MDM participent à la compréhension, la protection et à la sécurité de la data ?
Si en matière de cybersécurité les avantages d’un référentiel de données centralisées sont indéniables – moins les données de l’organisation sont éparpillées, moins la couverture d’attaque est grande – il ne faut pas rester focalisé sur celui-ci. Car certaines données peuvent être extraites par des tiers qui interviennent dans les processus d’une organisation (sous-traitants, fournisseurs, filiales, …). Il est donc nécessaire de cartographier toutes les données, et pas seulement les métadonnées, pour savoir à tout moment où se trouvent les plus sensibles d’entre-elles. C’est de cette façon qu’il est possible de trouver des « zones de danger » auxquelles personne n’aurait pensé. Prenons l’exemple de la réalisation ponctuelle d’un test applicatif qui nécessite l’export de données de production (donc sensibles) vers une zone temporaire… non sécurisée et non surveillée. Soit ce fameux « angle mort ». La cartographie est donc selon moi un pilier fondamental dans la mise en oeuvre d’une démarche de cybersécurité. Dit autrement : il n’est pas possible de protéger ses données sensibles si on ne sait pas où elles se trouvent.
La notion de temporalité est également à prendre en compte en plus de la cartographie : est-ce que ce directeur commercial peut accéder aux données clients … alors qu’il ne fait plus partie de l’organisation depuis 3 mois ? Et pour palier un oubli, rien de tel que l’automatisation. Ainsi, si l’ESB centralise les données dans une référentiel unique, le MDM (Master Data Management) centralise les informations d’identité et d’accès des employés. Il permet de définir des règles automatiques, de suivre et d’auditer les révocations de droits d’accès. Un outil très précieux dans le cas de collaborateurs quittant l’entreprise par exemple. Plus généralement, le MDM représente une approche centralisée de la gestion des données critiques d’une organisation. Il vise à créer une source unique de vérité pour les données clé, telles que les clients, les produits, les fournisseurs et les employés. Il garantit ainsi qu’elles sont à jour, exactes et cohérentes dans l’ensemble de l’organisation.
Les enjeux d’interopérabilité au sein du SI : au cœur des environnements ERP.
Pourquoi le Business Process Management est également essentiel dans la gestion des droits d’une organisation ?
La définition et la visibilité d’un processus équivalent à la compréhension de ce qui est autorisée, et nécessairement la détection de ce qui ne l’est pas. Ainsi, le simple fait de concevoir un processus avec un outil de BPM (Business Process Management) permet de mettre en exergue des manques. Soyons clair, un processus qui n’est pas matérialisé est un processus qui n’est pas maîtrisé par l’organisation.
Aujourd’hui, le SI d’une organisation doit être ouvert, c’est le sens de l’histoire et ce n’est plus un choix. Et les technologies qui permettent cette ouverture ne doivent pas être vues comme les maillons faibles de la sécurité, mais comme ses maillons forts. Cette philosophie peut également être appliquée au ROI. Car celui-ci ne doit pas simplement se calculer avec le rapport gain de productivité et gain financier versus l’énergie dépensée. Il faut également intégrer la réduction des risques de sécurité.
Grâce à des données harmonisées, synchronisées et de confiance, la plateforme Phoenix vous permet de maîtriser les risques. Car une gouvernance efficiente est nécessairement corrélée à une réelle démarche de « security by design », à même de valoriser la data tout autant que de la protéger. En apportant synchronisation, harmonisation et confiance dans la donnée, la plateforme Phoenix sécurise aussi votre organisation : bien urbaniser, c’est bien protéger.
Échangez sur l’interopérabilité de votre SI avec un expert Blueway !