L'IA modifie déjà le caractère de la guerre
L'IA a un impact à tous les niveaux de la guerre, depuis le soutien au renseignement, à la surveillance et à la reconnaissance, jusqu'aux systèmes d'armes autonomes létaux, qui peuvent choisir et attaquer des cibles sans intervention humaine.
Selon certaines informations, les Forces de défense israéliennes (FDI) utilisent un système d'intelligence artificielle (IA) appelé Habsora (Évangile en hébreu) pour sélectionner des cibles dans le cadre de la guerre contre le Hamas à Gaza.
Le logiciel de ciblage israélien peut suggérer 100 cibles par jour, avec des recommandations en temps réel, alors que les analystes du renseignement traditionnels pouvaient suggérer 50 cibles de bombardement à Gaza chaque année.
L'utilisation de l'IA est potentiellement justifiée par sa capacité à interpréter et à synthétiser d'énormes quantités de données, à les traiter et à produire des résultats à des rythmes qui dépassent de loin la cognition humaine.
Mais où est l'espace pour une délibération éthique dans un cycle de plus en plus rapide et centré sur les données, qui se produit à une distance sûre de la bataille ?
Recommandé par LinkedIn
Certains prétendent que l'apprentissage automatique permet une plus grande précision dans le ciblage, ce qui permet d'éviter de blesser des innocents et d'utiliser une force proportionnelle. Habsora par exemple, permet à l'armée d'effectuer des frappes massives sur les maisons résidentielles où vit un seul membre du Hamas.
L'idée d'un ciblage plus précis des frappes aériennes n'a pas été couronnée de succès dans le passé, comme le montre le nombre élevé de victimes civiles déclarées et non déclarées dans le cadre de la guerre mondiale contre le terrorisme.
En outre, la différence entre un combattant et un civil est rarement évidente. Même les humains sont souvent incapables de dire qui est un combattant et qui ne l'est pas.
La technologie ne change rien à cette vérité fondamentale.
Sources : The Conversation / NDTV / The Times of Israel / The Guardian