Pour, contre des lois pour les robots ?

Pour, contre des lois pour les robots ?

La robotique progresse à pas de géant. Les robots deviennent de plus en plus autonomes. Comment s'assurer qu'ils agissent moralement ?

En préambule je vais citer 3 exemples de progression de la robotique en association avec l’Intelligence Artificielle :

En ce moment la ville de Dubaï expérimente des policiers robots et compte remplacer 25 % de ses effectifs policiers humains d’ici 2030. Doté d’un écran tactile intégré à son torse, il ressemble plus à une borne de renseignements interactive avec une casquette de policier. Il est aussi possible de lui payer directement certaines contraventions. Equipé d'un logiciel de reconnaissance faciale et vocale, il peut surveiller et donner l’alerte en cas d’identification d’un suspect.

A Tama au Japon, ville de 150 000 habitants au sud de Tokyo, un candidat se cache derrière une image de robot pour se présenter aux les élections municipales. C’était le 15 avril dernier. Michihito Matsuda, ce candidat a axé sa campagne autour de l’intelligence artificielle. Parmi ses promesses, ce candidat souhaite mettre l’intelligence artificielle au cœur de toutes les décisions politiques de la municipalité. Il a alors eu l’idée de choisir un robot aux formes féminines pour le représenter aux élections, face à ses rivaux. « Nous allons conduire une politique impartiale et objective ». Le candidat n’a pas remporté les municipales, mais c’est une première.

L’université de technologie de Nanyang, à Singapour, a trouvé la solution pour monter une chaise Ikea. Dans les faits, l'appareil commence par prendre des photos des différentes parties de la chaise, posées à terre, avec une caméra 3D. Ensuite, les deux bras mécaniques équipés de capteurs procèdent au montage. Il a fallu créer des algorithmes puissants pour finaliser ce robot. L’équipe compte encore l’améliorer afin « qu’il devienne plus autonome et qu’il puisse apprendre à monter un meuble rien qu’en lisant un manuel ou en observant un homme le faire »

Si on demande à une intelligence artificielle de stopper la hausse des températures dans le monde avec comme conséquence le changement climatique. Il est fort probable qu’une des solutions soit de supprimer l’homme de la Terre. Il est clair que cette solution donne le résultat escompté, mais elle est bien évidement moralement inacceptable. Il devient donc incontestable que l’IA et la robotique doivent se conformer à des règles strictes.

Aussi curieux que ça puisse paraitre c’est en 1940 qu’Isaac Asimov, auteur de science-fiction qui invente les lois de la robotique.

Première Loi : Un robot ne peut porter atteinte à un être humain ni, en restant passif, permettre qu'un être humain soit exposé au danger.

Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi.

Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi.

Une loi Loi Zéro est apparue un peu plus tard, qui précise qu'un robot ne peut porter atteinte à l'humanité dans son ensemble, même pour protéger un être humain.

Ces lois restent valables pour l’Intelligence Artificielle. Certains demandent que ces lois soient inscrites directement dans les programmes, malheureusement les militaires ne sont pas du même avis.

En attendant la prochaine Chronique je vous invite à échanger sur le thème :

Souhaitez-vous que les lois de la robotique d’Isaac Asimov soient inscrites dans les programmes de chaque Intelligence Artificielle et chaque robot ?

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets