Cybercriminalité : les risques liés à l'intelligence artificielle
Dans les dix prochaines années, le progrès fulgurant de l'intelligence artificielle (IA) risque de renforcer la cybercriminalité, le terrorisme, la manipulation politique… Ce sont les conclusions alarmantes du rapport « Utilisation Malicieuse de l’Intelligence Artificielle » publié le 20 février, qui a été réalisé par des experts internationaux en intelligence artificielle, cybersécurité et robotique. Ils appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).
Dans les dix prochaines années, « Nous pensons que les attaques qui seront permises par l'utilisation croissante de l'IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer à leurs auteurs et potentiellement capables d’exploiter les vulnérabilités des systèmes d’IA », alertent les spécialistes, « Il est clair que l’IA aura une place importante dans les questions de sécurité de demain, que les possibilités d’usage malveillant sont nombreuses, et que nous pouvons et devons faire plus. »
Pour illustrer leurs craintes, les experts évoquent plusieurs « scénarios hypothétiques » d'utilisation mal intentionnée de l'IA. Ils soulignent que des terroristes pourraient modifier des systèmes d'IA disponibles dans le commerce « comme utiliser des drones ou des véhicules autonomes pour transporter des explosifs et causer des accidents ».
A l’avenir, l’IA pourrait être utilisée beaucoup plus pour « automatiser la découverte de failles » et « pour améliorer le choix des cibles, éviter la détection et répondre avec créativité aux changements dans le comportement des cibles ».
Selon les spécialistes, il y aura plus de spear phishing, et les principales victimes devraient être des grandes figures de la politique.
Il peut y avoir « des campagnes de désinformation automatisées et hautement personnalisées » : en analysant les comportements des internautes, il serait possible de concevoir des messages sur mesure, qui leur seraient envoyés dans le but d’influencer leur vote.
Les technologies sont capables de fabriquer des fausses vidéos très réalistes et cela pourrait être utilisé pour discréditer des responsables politiques, avertit le rapport. Aussi, les États autoritaires vont pouvoir s'appuyer sur l'IA pour renforcer la surveillance de leurs citoyens.
Au fait, ce n'est pas la première fois que des experts expriment des inquiétudes concernant l'IA. Déjà en 2014, l'astrophysicien Stephen Hawking lançait une mise en garde sur les risques qu'elle pourrait faire courir à l'humanité, en dépassant l'intelligence humaine. Ses avis étaient partagés par l’entrepreneur Elon Musk et plusieurs de ses paires. Des rapports spécifiques sur l'utilisation de drones tueurs ont également été publiés.
Aujourd’hui, ce nouveau rapport confirme les dérives et apporte « une vue d'ensemble sur la façon dont l'IA crée de nouvelles menaces ou change la nature des menaces existantes dans les domaines de la sécurité numérique, physique et politique », « Les chercheurs en IA, les concepteurs de robots, les compagnies, les régulateurs, les politiques doivent à présent collaborer pour tenter de prévenir » ces risques, conclut Seán Ó hÉigeartaigh, directeur du « Centre for the Study of Existential Risk » de l'Université de Cambridge.