Démocratisation de la donnée
Les 20 dernières années nous avons constaté un véritable boom de la data, avec l'apparition de centaines d'outils de préparation, de visualisation, traçabilité et stockage des données. La promotion marketing de ces outils a été sans précédente et mille concepts ont vu le jour BigData, SmallData, Smartdata, Opendata, Datacentric, Datamanagement. Derrières ces concepts il y avait la promesse de gros bénéfices, un peu comme à l’époque de la ruée vers l'or du grand West.
Maintenant, quelques années après le boom de la data, est ce qu’on peut dire que la data a tenu ses promesses ? Est-ce que vous utilisez au quotidien des indicateurs dans vos prises de décisions ? Est-ce que aujourd'hui vous savez où trouver les informations utiles à votre travail ? Etes-vous sûrs que cette information est juste ? Vous avez répondu oui à toutes mes questions ? Je pense que votre nez va commencer à s’allonger :).
La démarche classique pour exploiter des grandes quantités de données a été, ces 20 dernières années, de les regrouper dans des entrepôts de données, puis dans des datalakes. Après, nous avons passé beaucoup de temps et écrit beaucoup de ligne des codes pour les nettoyer, les préparer, les réorganiser, pour à la fin sortir quelques indicateurs dans des tableaux de bord.Nous avons passé aussi du temps et de l’énergie, à construire des référentiels entreprises, véritable colonne vertébrale des applications analytiques. Et puis la data a déclenché la guerre entre les informaticiens et les métiers, pour définir qui les exploite, qui les gouverne, qui est le propriétaire, qui doit avoir accès. Et pire encore la data a généré le terrible combat des écarts :
- Tous les services produisent des tableaux de bord et des indicateurs
- Aucun service ne produit les mêmes
- Les collaborateurs passent un temps infini à expliquer les écarts
Ce problème a permis l’apparition d’un nouveau concept « la golden source », c’est-à-dire la source de données la plus contrôlée, la plus certifiée, la plus juste.Un travail considérable a déjà été réalisé, mais pour profiter réellement des données il faut aller plus loin :
- Les applications opérationnelles doivent être conçues différemment
- Tous les collaborateurs doivent être formés à l’interrogation des données, en faisant attention à ne pas déclencher la guerre des écarts.
Si on sait désormais construire des applications qui parlent le langage naturel, pourquoi on ne ferait pas systématiquement des applications qui se parlent entre elles. Par exemple, si pour calculer un score sur un client la démarche classique est de regrouper toutes les informations dans un infocentre et puis après de calculer le score, une nouvelle démarche, en train d’émerger, serait :
- L’application qui a besoin du « score » interroge toutes les autres, en lançant plusieurs traitements en parallèle et en récupérant le résultat
Les principes sont simples à comprendre et plus difficiles à mettre en place :
- c’est moins cher et plus rapide de distribuer les traitements et non pas les données.
- lors de sa conception chaque application doit être conçue, non pas comme un module isolé et autonome, mais comme un module capable de communiquer avec d’autres modules
-toute application opérationnelle doit inclure un module analytique
Pour aller encore plus loin, il ne suffit pas d’avoir des applications performantes, il faut réellement démocratiser l’accès à aux données en formant les collaborateurs. Actuellement il y a peu de collaborateurs qui savent interroger les données. C’est une situation similaire à celle d’il y 30 ans quand peu de gens savaient se servir d’un ordinateur ou il y 20 quand peu de gens avaient un e-mail. Mais il est possible d’apprendre et puis de se perfectionner, en favorisant la création des communautés « data » intra-entreprises. Tous les membres ont accès aux conseils de l’expert, sans passer par des processus complexes. Les experts sont ceux capables d’apporter les réponses pertinentes, ils sont volontaires et ils répondent en fonction de leur disponibilité. Donc il ne faut plus interdire l’accès à la données, simplifier à outrance ou créer le goulot d’étranglement de l’informaticien comme passage obligé.