La persuasion à l’ère des assistants virtuels: un nouveau danger
Beaucoup s'inquiètent de l'impact de l'intelligence artificielle sur nos emplois, mais qu'en est-il de son influence sur nos prises de décisions?
Les éthiciens de l'IA tirent la sonnette d'alarme: l'essor de l'intelligence artificielle pourrait ouvrir la voie à l'exploitation commerciale des motivations personnelles.
Des chercheurs du Leverhulme Center for the Future of Intelligence de l'Université de Cambridge, dans un article publié lundi, soulignent que l'IA générative, comme les chatbots et les assistants virtuels, ouvre la voie à une utilisation accrue des technologies persuasives.
«Des ressources considérables sont investies pour intégrer les assistants d'IA dans tous les aspects de la vie, ce qui pose la question des intérêts et des objectifs de ces soi-disant assistants», affirme Yaqub Chaudhary, chercheur invité au Centre pour l'avenir de l'intelligence. Lorsqu'ils interagissent avec des chatbots d'IA, qu'ils soient tuteurs pédagogiques, assistants ou même partenaires romantiques, les utilisateurs partagent des informations intimes.
Ces données permettent à la technologie d'accéder à des «intentions» personnelles, telles que des informations psychologiques et comportementales, précise le chercheur: «Ce que les gens expriment dans leurs conversations, la façon dont ils le formulent et les déductions qui peuvent en découler en temps réel sont infiniment plus personnelles que de simples traces d’interactions en ligne», ajoute M. Chaudhary.
En réalité, l'IA manipule déjà subtilement les motivations en imitant la façon dont un utilisateur échange avec elle ou en anticipant ses réponses, affirment les auteurs de l'étude. Ces conversations, aussi anodines qu'elles paraissent, ouvrent la porte à la technologie pour prévoir et influencer les décisions avant même qu'elles ne soient prises.
«Nous avertissons que des outils d'IA sont déjà en cours de développement pour extraire, déduire, collecter, enregistrer, comprendre, prévoir et, en fin de compte, manipuler et transformer en ressources commerciales des intentions personnelles», conclut M. Chaudhary.
Source : Courthouse News
Lire aussi :
Docteur en Sciences Économiques
2 j.Dès 2002, voici comment le Stanford Persuasive Tech Lab présentait les enjeux de ses travaux : Every day more and more computing products, including websites and mobile apps, are designed to change what people think and do. Nous étions prévenus ...
Spécialiste en digitalisation dans le secteur juridique et les opérations légales, titulaire du brevet d'avocat
3 j.Il ne faut pas oublier qu'un humain en est tout à fait capable aussi et le fait en général instinctivement, même déjà bébé. Nous cherchons sans cesse à proposer les bons arguments. Là où la vigilance est de mise, c'est lorsqu'on entre dans la sphère des IAs à haut risque ou prohibées selon l'IA Act.
Sales Manager/ Business Unit Manager/ Country Manager | Secteurs des médias et du marketing digital (Programmatic - Adtech MarTech, SaaS)
3 j.Miroir, mon beau miroir.... au temps de l'IA.
Je crée des rencontres et j'anime des écosystèmes de parties prenantes pour plus de collaborations, d'innovations RSE et de résilience : prenez une longueur d'avance !
3 j.Acheter et vendre plus de choses...et nos cerveaux avec ! Je ne comprends pas comment l'humanité peut se laisser berner comme ça par les machines ! Paresse et facilité sans doute...d'où l'importance de fixer des règles éthiques