Prédictibilité et analyse de données
Crédits photos : Ducasse Jean Michel - TOTAL

Prédictibilité et analyse de données

On m'a demandé il y a quelques temps si l'analyse de données permettait d'améliorer la prédictibilité d'un système et de prendre des meilleures décisions. J'ai été naturellement enclin a répondre que oui, bien sûr, le champ de l’imprévisible peut se réduire grâce aux données, parce qu’elles permettent de mieux comprendre notre monde et de mieux décider.

Mais après un petit moment de réflexion, j'ai réalisé que la réponse pouvait être plus nuancée. En effet, dans certains cas il faut dissocier les notions de compréhension et de décision. Il arrive qu'un modèle basé des données puisse prendre des décisions, parfois très bonnes, mais complètement imprévisibles, parce qu’il n’est plus compréhensible par un homme. Plus précisément, une situation va devenir prédictible pour une machine, mais la machine imprédictible pour un homme…

Typiquement, c’est ce dont on parle quand on parle de modèles « boite noire », par exemples des modèles très non-linéaires ou en très hautes dimensions, qui dépassent les capacités d’entendement de l’homme. Pour rappel, on dit parfois qu’un homme avec un QI de 200 peut concevoir 9 dimensions en simultané – en ce qui me concerne, je suis limité à 3 –… en apprentissage machine aujourd’hui, il n’est pas rare de traiter des milliers de dimensions en même temps.

Un exemple assez frappant est la célèbre partie de Go en 2016 jouée en entre Lee Sedol, un des meilleurs joueurs mondial, et AlphaGo, un programme d’intelligence artificielle (qui n'est pas basé que sur de l'apprentissage statistique) développé par Deepmind, une société de Google . C’est un moment d’anthologie de l’histoire de l’intelligence artificielle. A un moment, précisément au 37ème coup de la deuxième partie, la machine prend une décision complètement imprédictible pour l’homme. La vidéo est vraiment déroutante : les commentateurs de la partie sont confus, ils pensent d'abord qu'Alphago a fait une erreur. De même, quand Lee Sedol voit le coup, il a l’air complètement perdu. A la fin de la partie, Alphago gagne, et il s’avère que c’est grâce à ce fameux coup 37 imprédictible, qui a eu des conséquences essentielles sur la suite de la partie… Tous les experts affirment qu’aucun joueur de Go professionnel n’aurait joué un tel coup. Il est désormais même étudié par les joueurs humains ! En quelque sorte, la machine a anticipé un déroulé de partie inaccessible à l’entendement humain.

Cette imprévisibilité est telle aujourd’hui avec les algorithmes très complexes qu'on conçoit et déploie, dans des environnements eux-mêmes très complexes, qu’un chercheur de l’institut Max Planck, Iyad Rahwan, pose les contour d’une nouvelle science (le « machine behavior »). Elle vise a étudier le comportement des machines dans leurs environnements « naturels » d’opérations.

Cette situation pose des questions essentielles sur l’usage de l’intelligence artificielle et de la donnée. Comment évaluer la qualité de la prédiction d’un algorithme complexe et quelle autonomie lui laisser ? Plus généralement, comment intégrer efficacement la rationalité algorithmique dans une prise de décision humaine, sans doute moins rationnelle mais aussi plus riche ? Je rappelle que l’homme a beaucoup de qualités encore peu présentes dans l'intelligence artificielle contemporaine : empathie, sociabilité, sens commun, raisonnement systémique, capacité à traiter des objectifs non modélisables par une fonction de coût… (j'en ai parlé dans cet article)

C’est d’ailleurs pour apporter des réponses concrètes à ces questions que les sociétés les plus en pointe en apprentissage machine mettent en place des postes de Chief Decision Officer, comme Cassie Kozyrkov chez Google. L’objectif est d’enrichir la science des données avec des approches issues de la psychologie, des neurosciences, de l’économie et du management, pour optimiser les processus décisionnels dans l’entreprise.

Aucun texte alternatif pour cette image

Chez Total, nous n’en sommes pas encore à nommer un Chief Decision Officer. Cependant nous sommes confrontés à beaucoup de domaines à décisions critiques, avec de forts enjeux de sécurité. Nous ne pouvons pas accepter de prendre des décisions non maîtrisées. C’est pourquoi nous avons beaucoup de projets en cours visant à améliorer l’intelligibilité des modèles avant toute mise en production. On cherche à améliorer leur explicabilité ou à les coupler avec la connaissance (scientifique ou pratique) qu’on nos experts de nos activités. Selon moi (voir par exemple cet article), c'est absolument essentiel pour faire de l'intelligence artificielle un vrai levier de transformation d'une organisation.

Arnaud Bonnefond

Directeur Général chez Resonances

4 ans

Merci Michel, instructif ! Développement des sciences psychologiques et cognitives : pour améliorer l'interaction homme-machine ou pour faire disparaître in fine l'Homme de l'équation ? Question qui n'appelle pas de réponse, juste une réflexion à garder en tête pour l'avenir... ;-)

nicole Roelens

Psychologue du travail, analyste des interactions, écrivaine

4 ans

Michel, Jb m'a dit que tu avais présenté un de mes livres à ton réseau, j'aimerais bien voir et entendre ta présentation Amitiés Nicole

Jérôme Fortias

Amexio group AI program Director

4 ans

Je vois des tonnes de choses à dire.... Mais je vais explorer quelques remarques : 1 - Il n'y aucune raison que le théoreme de Gödel de n'applique pas à la data science, donc on peut avoir des modèles non démontrables qui fonctionnent et l'inverse aussi. 2 - On a tendance en datascience/IA à se focaliser sur les data en oubliant l'intuition humaine collective (tu sais ce truc bizarre qu'une communauté arrive a deviner le nombre de bonbons dans un bocal avec une précision dingue alors que chaque personne se plante). Hors en captant l'intuition humaine on peut renforcer des modèles. 3 - Une bonne solution n'est jamais un seul algorithme mais une superposition de différents algorithmes dont les poids devraient être régulé (j'appelle cela mes MACRO NEURONES) 4 - On peut rechercher avec du renseignement électronique des corrélations sans préjugé aucun, des signaux faibles ou des choses bizarres (comme la légalisation du canabis qui a augmenté les ventes de McDo - Pétard -> Faim ) Le nombre de dimension visible ne dépend pas que du QI, une synesthésie peut largement aider a voir 2 ou 3 dimensions supplémentaires. Accessoirement, j'ai toujours cru que Demis Hassabis avait volontairement fait que Lee Sedol gagne la 4eme partie .... Un jour les CDO deviendront des CDIO Chef Data and Intelligence Officier, là on aura atteint de maturité ;)

Christelle R.

HSE Manager chez TotalEnergies

4 ans

Merci pour ce partage Michel Lutz. Fiabiliser les prises de décision est parfois vital en raison des enjeux présents (ex : vie et santé humaine, protection de l'environnement, santé financière). J'y vois une formidable opportunité en terme de création de métiers nouveaux. A ce sujet, j'ai lu les "Métiers du futur" d'Isabelle Rouhan et dans lequel on trouve entre autre une description de nouveaux emplois mais également les conséquences sociologiques. Qui sait, peut-être devriez-vous échanger ? Les liens avec la gouvernance d'entreprise me semblent évidents également (management des risques, composition des équipes, rapidité des circuits de prise de décision, valeurs défendues, vision etc...). Parce que la loi Pacte prévoit qu'une entreprise ait aussi un rôle social et environnemental, de plus en plus son schéma de gouvernance pourrait être repensé et l'accompagner dans ce changement est important. Enfin quid du droit à l'erreur ?

Identifiez-vous pour afficher ou ajouter un commentaire

Plus d’articles de Michel Lutz

Autres pages consultées

Explorer les sujets