Comment les décisions absurdes s'immiscent dans notre monde organisé
Qu'y a-t-il de commun entre l'explosion de la navette Challenger, l'accident nucléaire de Tchernobyl et "Le Pont de la rivière Kwaï" ?
Tous ces événements sont la conséquences de décisions absurdes.
C'est la thèse que soutient le sociologue Christian Morel, dont on m'avait depuis longtemps conseillé le livre (merci Franck ATGIE !).
Erreurs radicales persistantes
Qu'est-ce qu'une décision absurde ? C'est, à la base, une erreur de jugement, prolongée avec persévérance contre le but initialement poursuivi.
Christian Morel en cite quelques exemples, dont les plus parlants sont sans conteste des accidents de transport ou des catastrophes industrielles.
Il évoque ainsi le crash d'un Boeing en 1989, victime d'une panne de réacteur, et dont les pilotes arrêtent l'autre réacteur (celui qui fonctionnait). Que dire également de deux pétroliers qui se heurtent en mer d'Oman (en 1972), alors que leurs routes initiales ne se croisaient pas ?
Des causes cognitives
Pour avoir exploré le sujet des biais (dans la prise de décision, ou via les nudges), je me doutais bien que certaines décisions absurdes pouvaient avoir une origine cognitive.
Dans l'exemple du Boeing, tout en gardant leur sang-froid, les pilotes ont utilisé une succession de raccourcis mentaux (imprécisions, lien fait entre deux événements proches mais sans rapport…).
Quant à la collision des pétroliers, elle provient en partie d'une interprétation des intentions de l'autre.
Christian Morel évoque aussi la difficulté de l'esprit humain à traiter en simultanée deux dimensions, et notamment à passer à une deuxième action en attendant les résultats la première (si si).
Recommandé par LinkedIn
Une œuvre collective
Les exemples cités sont édifiants, par leurs conséquences bien entendu, mais aussi parce qu'ils résultent de la décision d'un collectif. On est loin de l'idée d'un individu qui s'enferre seul dans un jugement erroné.
Christian Morel distingue trois rôles dans nos organisations modernes :
Ainsi, l'absence d'expertise sur le cœur de réacteur aurait joué un grand rôle dans la catastrophe de Tchernobyl, les conducteurs de l'installation (des "candides"), ayant manipulé le système à leur façon, pour gagner du temps et corriger des anomalies, sous la pression du manager.
L'explosion de la navette américaine Challenger est l'exemple le plus décortiqué dans ce livre. La cause en est connue : les joints des boosters, soumis à une température basse au décollage, mettront un peu plus de temps que prévu à se dilater, laissant échapper des gaz brûlants qui provoqueront l'accident.
La propriété des joints étaient parfaitement connue, et pourtant la décision de lancement a été prise.
Il est difficile de citer la totalité des facteurs y ayant conduit : si la pression des délais est présente en tâche de fond, si la probabilité de température basse en Floride semble avoir été négligée, il semble bien que la décision finale ait résulté d'un poids trop important du manager sur l'expert (en hyper-résumé…).
Comment éviter les décisions absurdes ?
Je n'ai pas encore lu le deuxième tome sur ce sujet, mais je tire déjà des enseignements de ces études, y compris dans mon quotidien professionnel :
Le premier est de conserver le bon équilibre entre les trois rôles manager - expert - candide, avec un point d'attention : se méfier de l'auto-expertise (= on fait soi-même car on croit savoir).
Christian Morel alerte également sur les pièges de la coordination : division imprécise du travail, silence sur les désaccords.
Mais le meilleur moyen d'éloigner les décisions absurdes est sans doute de garder en tête le (vrai) sens de nos actions, en évitant le "syndrome du pont de la rivière Kwaï", dans lequel l'action est auto-légitimée (= prouver sa capacité à construire un pont, qui sert les intérêts de l'ennemi).
Responsable Marketing Services et Partenariats
2 ansJe l’ai lu en prépa également ! Sur le thème de l’Action. J’ai gardé le souvenir improbable d’une copro qui vote l’installation de barrières rendant impossible l’accès au parking 😅