L’IA pourrait-elle rivaliser avec nos cinq sens ?
Pour rivaliser avec les capacités humaines, l’IA devrait d’abord être capable de reproduire nos cinq sens : la vue, l’odorat, le toucher, l’ouïe et le goût. Certains chercheurs vont jusqu’à affirmer que les êtres humains sont dotés de plus de dix sens. Parmi eux, la thermoception, aptitude à percevoir s’il fait froid ou chaud indépendamment du toucher, la nociception qui consiste à ressentir de la douleur sans faire appel aux autres sens ou encore le sens de l’équilibre, dit sens vestibulaire ou équilibrioception, qui finalement n’est lié ni à la vue ni au toucher. Jusqu'où nos sens pourraient-ils être artificiellement reproduits ?
Jusqu’à présent, l’intelligence artificielle a su « intégrer » la vue et l’ouïe à travers les applications de reconnaissance visuelle et vocale. Pour l’odorat, le toucher et le goût, cela semble plus compliqué. Dès lors, on comprend les premières limites qui semblent difficiles à franchir pour les machines. Bien que ces dernières puissent être en capacité d’apprivoiser les autres sens évoqués par les scientifiques, comme la thermoception qui peut être assimilée avec de capteurs de température ou encore l’équilibrioception qui peut être assurée par des calculs géométriques, l’IA est mise en difficulté dès lors qu’il s’agit d’intégrer des tâches ou des décisions liées à notre « sixième sens ». C’est-à-dire ce sens systémique et intuitif qui fait appel à nos capacités de raisonnements abstraits et qui nécessiterait des dizaines d’années de recherche et la programmation de plusieurs centaines de couches de neurones algorithmiques pour parvenir à en créer ne serait-ce qu’une version simplifiée.
Notre sixième sens illustre une combinaison de plusieurs appréciations abstraites, subjectives et parfois ambigües, avec un degré de complexité difficile à reproduire par une machine. Chez un être humain, une déclaration d’amour ou d'amitié, pourtant très empathique, peut revêtir une interprétation négative si elle n’est pas accompagnée d’un certain nombre de signes et d’expressions de sincérité. Une même phrase peut exprimer des sens différents selon la tonalité et les expressions du corps qui l’accompagnent. S’adresser à quelqu’un avec empathie en lui disant « ça ne va pas ? » n’a pas du tout le même sens que si l’on exprime cette même interrogation avec colère. Le travail de programmation pour détecter l’infinité des combinaisons entre expressions vocales, expressions faciales, attitudes du corps et tonalités de la voix est juste colossal pour les chercheurs qui s’y aventurent.
Ces éléments qui caractérisent les différences fondamentales entre les capacités des êtres humains et celles des machines nous indiquent la voie à suivre pour que chaque individu puisse retrouver sa place dans ce monde robotisé. C’est dans ces différences que nous pouvons trouver les solutions pour faire face à l’impact socioéconomique du déploiement de l’IA. C’est en cultivant ce qui fait la différence entre l’homme et la machine que nous pouvons régler les problématiques liées au déséquilibre du marché de l’emploi.
Extrait du livre « Intelligence positive et management du futur » aux éditions Pomdam à partir du 24 mars 2020. En précommande sur www.pomdam.fr
Conférence de lancement à l’école d’ingénieurs de Lens le 24 mars à 17h30. Inscriptions sur https://irobotday.eventbrite.fr