Le data mesh est conçu sous la forme d’un modèle distribué. En d’autres termes, chaque organisation le comporte ses propres porteurs de produits de données, responsables des données spécifiques à un domaine.
La transformation numérique que connaît le secteur financier ces dernières années a provoqué une explosion du volume des données et des informations personnelles. Utilisées à bon escient, celles-ci ouvrent le champ des possibles, tant en termes de chiffre d’affaires que d’expérience client, mais aussi de démarcation sur l’un des marchés les plus concurrentiels au monde.
Cependant, face à l’élargissement et à la complexification du paysage, il devient de plus en plus difficile de s’y retrouver dans ce flux en interrompant les informations. À tel point que de nombreux organismes financiers n’ont pas réussi à réaliser leurs ambitions numériques pour entrer dans la nouvelle ère data centric.
Afin de développer leur véritable potentiel, ces entreprises doivent disposer d’un accès efficace aux données pour les analyser et les comprendre, ce qui est indispensable pour les valoriser et les mettre à profit.
Donner un sens à la masse de données
Ce n’est pas seulement le volume des données qui augmente au fil des années. C’est aussi leur variété, avec un nombre sans cesse croissant de lacs de données, d’applications et d’autres sources, le tout avec différents formats et protocoles. Les multiples magasins de données et applications créent autant de charges de travail analytiques exécutées sur divers systèmes.
Il en résulte des silos et, en définitive, des goulets d’étranglement et des retards. Pour les entreprises, en particulier celles qui cherchent à innover rapidement afin de rivaliser avec les challengers et les FinTechs, ces retards risquent d’être désastreux.
C’est ici qu’intervient le maillage de données. Ce nouveau concept, initialement proposé par Zhamak Dehghani de Thoughtworks en 2019, décentralise l’analyse des données en vue d’éliminer les goulets d’étranglement et de rapprocher les prises de décisions de ceux qui contiennent les données.
L’objectif est une infrastructure unifiée permettant aux domaines de créer et de partager des produits de données, tout en appliquant des normes en matière d’interopérabilité, de qualité, de gouvernance et de sécurité.
Le data mesh est conçu sous la forme d’un modèle distribué. En d’autres termes, chaque organisation le comporte ses propres porteurs de produits de données, responsables des données spécifiques à un domaine. Ceux-ci prennent en charge la modélisation et l’agrégation de ces données, ce qui facilite leur démocratisation et leur accès en libre-service pour l’entreprise dans son ensemble.
Cette approche permet à l’entreprise de gagner en vitesse et en échelle d’analyse, car chaque unité est mieux à même de comprendre comment utiliser ses données. Il fait également des données un produit décentralisé et autonome, consommable par tous au sein de l’entreprise. Cela a pour effet de supprimer l’obstacle que constitue une infrastructure centralisée et laisse chaque équipe libre de gérer ses données propres.
Toutefois, si le maillage des données peut apporter un grand nombre d’avantages en matière de prises de décisions et d’innovations numériques, les établissements financiers doivent veiller à le mettre en œuvre correctement.
L’innovation sans compromis
Alors que l’innovation n’a jamais pris autant d’importance, les entreprises doivent pouvoir la réaliser sans compromis sur la gouvernance ni sur la conformité. La réglementation dans le secteur de la finance est en effet un terrain semé d’embûches. Les risques peuvent prendre de nombreuses formes, qu’il s’agit de fraude ou de blanchiment.
Par leur nature même, les organismes financiers font l’objet d’une surveillance étroite afin qu’elles respectent les plus hauts standards de gouvernance des données.
Lors du déploiement d’une stratégie de data mesh, dans le souci de se conformer aux exigences légales et aux normes du secteur, mais aussi d’éviter toute fragmentation, redondance ou incohérence, les établissements doivent se focaliser sur l’interopérabilité entre domaines. C’est à ce stade que la virtualisation des données est amenée à jouer un rôle essentiel.
En intercalant une couche logique entre les sources de données en silos et les consommateurs de données spécifiques à chaque domaine, la virtualisation peut contribuer à l’efficacité du maillage de données.
À la différence d’un modèle classique de type ETL (Extract, Transform, Load) ou data warehouse, il n’est pas nécessaire de transférer et de copier les données. Au lieu de cela, des modèles sémantiques sont définis dans la couche virtuelle entre les sources hétérogènes et les différents consommateurs de données.
Cela permet aux utilisateurs d’abstraire l’accès aux données dont ils ont besoin, au fur et à mesure de leurs besoins, en quasi-temps réel. Grâce à la simplicité d’utilisation et à la réplication minimale de données que nécessite la virtualisation, la création de produits de données est bien plus rapide et sûre qu’au moyen des solutions classiques.
Sur le plan de la conformité, la couche logique de virtualisation permet également aux entreprises d’automatiser l’application des règles générales de sécurité. Par exemple, les responsables peuvent masquer les indications de salaire dans tous les produits de données sauf si l’utilisateur exerce un certain rôle dans les RH ou se situe à un certain niveau dans la hiérarchie.
Pour les organismes financiers, l’innovation pilotée par les données et les progrès du numérique revêt une importance sans précédent. Il ne fait donc aucun doute que les architectures modernes telles que le data mesh sont appelées à jouer un rôle majeur à l’avenir. Afin d’exploiter au maximum ces architectures et de réussir demain, les entreprises doivent commencer à investir dans les bonnes technologies dès aujourd’hui.
En offrant une vue à 360° de toutes les informations diffusées dans l’entreprise, la virtualisation des données s’affirme comme un ingrédient essentiel au succès d’un avenir data centric pour les acteurs des services financiers.