5 phénomènes cognitifs auxquels l’IA expose l’intelligence humaine
Alors que nous interagissons de plus en plus avec l’intelligence artificielle générative, il est essentiel non seulement de comprendre le b.a.-ba de cette technologie, mais aussi d’être conscient qu’elle nous expose à certains phénomènes cognitifs qui peuvent influencer notre façon de la percevoir et de l’utiliser. Voici donc cinq de ces phénomènes à garder en tête lors de vos prochaines interactions avec une IA.
**
1. Les biais d’algorithme
On pourrait croire que parce que l’IA générative est une « machine » qui traite l’information à l’aide d’approches statistiques, ses résultats sont nécessairement objectifs… Or, le design de l’algorithme (la procédure qui oriente le résultat) peut refléter ou encore amplifier les biais (sexistes, racistes, etc.) présents dans les données d’origine, qui sont produites par l’être humain et dans lesquelles certains groupes populationnels peuvent être sous-représentés. La perception des utilisateurs peut ainsi être influencée par des résultats faussement logiques, trompeurs ou discriminatoires provenant d’une machine qu’ils croient objective, et les inciter à prendre des décisions potentiellement préjudiciables ou dommageables.
2. L’effet boîte noire
L’IA générative peut produire des résultats d’une complexité et d’une cohérence qui ont de quoi surprendre… Entre sa requête et le résultat généré par l’IA, l’utilisateur (novice ou expert) se trouve devant un système dont le fonctionnement reste opaque et qui peut susciter chez lui un sentiment d’incompréhension ou de mystère. Ce phénomène qualifié d’« effet boîte noire » peut affecter la confiance qu’il accordera aux résultats.
3. L’interprétation des résultats
Selon des facteurs qui lui sont propres, tels que ses connaissances, ses expériences antérieures et ses attentes face à une technologie du genre, l’utilisateur peut interpréter de manière subjective le résultat da sa requête à l’IA.
Recommandé par LinkedIn
4. La surestimation ou la sous-estimation de l’IA
L’utilisateur peut tomber dans le piège de surestimer les capacités de l’IA en la croyant capable de résoudre des problèmes et de répondre à des demandes sans se tromper ou sans avoir à être supervisée par un humain, alors que ce ne serait pas le cas. Ce biais cognitif qui nous amène à croire que les machines sont infaillibles porte le nom de « biais d’automatisation ». Notons que le contraire peut aussi se produire, si l’utilisateur sous-estime des capacités réelles de l’IA pour mener à bien des tâches critiques.
5. L’acceptabilité sociale de l’IA
Véritable révolution technologique dont les impacts sur notre quotidien, voire sur notre humanité, s’annoncent majeurs, l’IA générative suscite autant l’enthousiasme que l’inquiétude. Elle soulève notamment plusieurs questions d’ordre éthique (sécurité, autonomie, vie privée, démocratie, etc.) qui sont loin d’être réglées. Or, son acceptabilité sociale peut avoir un effet sur la façon dont l’utilisateur l’aborde.
**
En complément :
Docteure formation adultes - PhD et Présidente 3E Innovation - Experts Digital Learning
4 moisRaphaël GRASSET
Contractual Lecturer, On-Line Translation Program, UQTR, Université du Québec à Trois-Rivières
4 moisMerci, Catherine.