Structure des données : de son approche stratégique dépend l’efficience opérationnelle.
Au cours des dernières années, un changement significatif dans le rapport à la donnée s’est progressivement opéré au sein des entreprises, à tel point que la manière dont elles la considèrent aujourd’hui semble être à l’exact opposé des pratiques antérieures.
Ainsi, autrefois perçue comme la simple résultante des processus métiers, la donnée est désormais reconnue comme un actif stratégique incontournable.
Cependant, les pratiques autour de la gestion de la donnée restent bien souvent focalisées sur la recherche d’avantages concurrentiels à grand renfort d’algorithmes analytiques alors que quelques considérations complémentaires bien conduites permettent d’atteindre la pleine réussite opérationnelle.
Changement de paradigme
Autrefois conçus par décomposition successive de fonctionnalités de haut niveau en algorithmes atomiques, les logiciels sont de nos jours majoritairement le résultat d’une agrégation itérative ascendante de fonctionnalités traitant d’entités métier.
C’est d’ailleurs tout à fait logiquement que cette transition s’est opérée puisque les fonctionnalités représentant les actions d’un processus métier ne sont pas nécessairement pérennes, alors que les données, elles, le sont bien davantage. En effet, si les processus métiers sont appelés à évoluer dans le temps du fait de nombreux facteurs conjoncturels, il y a fort à parier que l’évolution des données qu’ils génèrent et manipulent ne soit pas significative, même à très long terme.
Ainsi, cette seule notion de pérennité intrinsèque à la donnée nous amène naturellement à devoir considérer sa bonne conservation dans le temps en mettant tout en œuvre pour assurer, entre autres, sa fiabilité, son actualité, son exactitude, son accessibilité, son intégrité, bref, en un seul mot, sa qualité, jusque dans sa structuration.
Il apparaît alors naturel d’identifier les données clés de l’entreprise, d’en définir la structure en termes de champs, de types de données, de tailles, de modèles, voire de domaine de valeurs afin de mettre à disposition les entités de référence manipulées par les algorithmes et l’ensemble des bibliothèques utilitaires associées. Au-delà d’optimiser la maintenance logicielle, cette approche constitue la première pierre de l’interopérabilité.
Du DQM au MDM
Le Data Quality Management (DQM) est principalement axé sur la qualité des données en elles-mêmes, indépendamment de leur structure. Cependant, bien que trop peu considérée, la structure de la donnée participe très largement à l’efficience opérationnelle du système d’information.
En effet, la donnée est naturellement faite pour être partagée au sein du système d’information de l’entreprise étendue. Le plus souvent, ce partage d’information se fait via des flux Business-to-Business (B2B) structurés et automatisés.
De fait, l’adoption d’une structure commune de donnée devient stratégique pour permettre la suppression des transformations de formats et donc des sources d’erreurs potentielles et de temps d’exécution excessifs, voire d’incompatibilités et diminuer drastiquement le nombre de points d’attention à gérer dans le cadre de ces échanges.
Au-delà de faciliter l’interopérabilité, une structure de données managée, du fait de son organisation et de sa clarté, permet une standardisation, voire une normalisation des formats comme des relations, ce qui facilite la recherche, la manipulation et l'analyse des données et donc l’efficience opérationnelle.
Recommandé par LinkedIn
TTFAC & TTM
Aujourd’hui encore plus qu’hier, pour l’entreprise, l’efficience opérationnelle ne concerne pas uniquement la mesure de performance des seuls processus internes. En effet, elle prend en compte la capacité d’adaptation aux attentes du marché, c’est à dire à développer et à lancer de nouveaux produits ou services dans le but de satisfaire les clients. Il est alors question de "Time to Market" (TTM - temps nécessaire pour mettre un service sur le marché).
Dans le cas de services numériques reposant sur des API, particulièrement celles orientées ressources, la standardisation des structures de données permet de fortement diminuer le "Time to Market", ne serait ce qu’en diminuant le "Time to first API call" (TTFAC - temps nécessaire pour effectuer la première requête sur une API).
En effet, disposer de données à la structure managée facilite l’outillage des API en permettant la mise à disposition de bibliothèques d’appels à celles-ci. Ainsi, tout code appelant une API utilise une bibliothèque de fonctions d'appel commune au code source optimal dont les versions suivent celles de l’API cible. Autant d’étapes de développement, d’intégration et de validation des appels facilitées dans le cadre de l’API management et donc, au final, un "Time to Market" diminué.
DSM
Afin d’être complet, il s’avère nécessaire de prendre en considération les éléments structurels relatifs à la persistance des données, soit les tables, les vues, les index, les contraintes et les relations nécessaires à une organisation cohérente et performante des données persistées, au travers d’un Data Structure Management (DSM) garantissant l’intégrité comme le bon niveau de sécurité et de traçabilité de l’ensemble du capital informationnel de l’entreprise.
Ainsi, du modèle conceptuel de données (MCD) au modèle physique de données (MPD), l’ensemble des modèles permettant la pleine compréhension des choix constitue un référentiel qu’il est capital de gérer tout au long du cycle de vie du système d’information afin de pérenniser la maîtrise de l’architecture des données.
Enfin, bien que la redondance des données ne soit pas souhaitable au sein du système d’information, dans le cadre de l’entreprise étendue, il est intéressant de prévoir le partage des moyens nécessaires à la création, la modification, la suppression et la maintenance de ces différents éléments structurels, quel que soit le moyen de persistance implémenté.
En définitive, l’approche stratégique retenue en termes de gouvernance des structures de données impacte tout autant l’efficience opérationnelle que l’utilisation d’algorithmes analytiques des données. Standardiser les structures de données sur le périmètre complet de l’entreprise étendue permet de simplifier les processus d'intégration, d'éliminer les efforts de conversion de données, et de minimiser les erreurs et les retards causés par des incompatibilités de formats.
Pour aller plus loin
Composante essentielle de la culture de données au sein des organisations, la gouvernance des structures de données contribue à établir une culture axée sur la qualité, l'intégrité, la cohérence et l'exploitation efficace des données de bout en bout et dans tous ses aspects.
La mettre en place relève bien de la démarche collaborative et nécessite de passer par des phases successives que sont la sensibilisation à l'importance des structures de données, la définition des rôles et des responsabilités associées et l’adoption de bonnes pratiques dont la réussite repose sur le degré de partage de connaissances. Une fois un premier stade de maturité atteint, il conviendra de mettre en place, en toute transparence, des mécanismes outillés de suivi, de mesure, de contrôle et d’amélioration continue de la qualité des structures de données garantissant une conformité constante aux réglementations et aux politiques internes de manière à renforcer la confiance dans le patrimoine informationnel de l'organisation et le transformer en véritable capital.
Formateur de formateurs chez minarm
1 ansHa le MCD !