De l’intelligence artificielle à l’intelligence collective : une étude de cas dans un scénario de résolutions de problèmes

De l’intelligence artificielle à l’intelligence collective : une étude de cas dans un scénario de résolutions de problèmes

Si je vous disais d'imaginer une créature hybride, entre un cheval et un oiseau - disons, un cheval volant - auriez-vous besoin de voir un exemple concret pour le faire ? Une telle créature n'existe pas, mais rien ne nous empêche d'utiliser notre imagination pour en créer une : Pégase.

L'esprit humain dispose de toutes sortes de mécanismes pour créer de nouveaux concepts en combinant les connaissances abstraites et concrètes qu'il a du monde réel. Nous pouvons imaginer des choses existantes que nous n'aurions peut-être jamais vues, ainsi que des choses qui n'existent pas dans la vie réelle. Cette flexibilité cognitive nous permet d'apprendre de nouvelles choses avec peu de nouveaux exemples, voire parfois sans.

En revanche, les modèles de Machine Learning (un sous-domaine de l'intelligence artificielle (IA)) ou de Deep Learning (un sous-domaine du Machine Learning), nécessitent de nombreux exemples pour apprendre de nouvelles tâches, même si elles sont liées à des choses qu'ils connaissent déjà.

La curiosité est une autre caractéristique unique de l'expérience humaine (en comparaison avec les machines). L'envie humaine de connaître et de comprendre est le moteur de notre développement en tant qu'individus et même de notre succès en tant qu'espèce.

Pour William James (Kidd et Hayden, 2015), l'un des premiers psychologues modernes, la curiosité est « l'impulsion vers une meilleure cognition ». Bien qu'il ait été difficile de trouver une définition, le consensus général est qu'il s'agit d'un moyen de recueillir des informations (Bahzydai et al., 2019).

Mais ce qui fait des humains des bons apprenants —notre capacité à généraliser à partir de quelques exemples guidés par des modèles mentaux construits sur une intention implicite— peut également faire de nous des mauvais « désapprenants », limitant notre capacité à changer d'avis une fois que ces modèles sont constitués (Hidalgo, 2020).

Dans ce contexte, mon objectif a été de comprendre le rôle des humains et des machines dans le travail collectif des groupes qui doivent imaginer des solutions à différents types de problèmes.

Ces derniers mois, différents journaux ont commencé à publier des articles avec des intitulés comme « Cette IA peut créer des images stupéfiantes à partir d’une simple description », ou « L’intelligence artificielle est aussi créative », ce qui nous fait penser que les systèmes d'IA ont au moins un peu de créativité. Mais ces titres ne nous disent pas toute l’histoire : ce sont les humains qui sont créatifs, pas les systèmes d’IA.

Le système d’IA peut proposer quelque chose d'intéressant (un texte, une image, etc.), mais nous ne sommes pas sûrs de ce que nous attendons. Nous ne devrions donc pas confier entièrement la tâche au système, mais nous devrions plutôt nous attendre à ce que ce soit juste une façon d'inspirer notre créativité humaine, le système ne fera qu’associer-combiner-mixer certaines informations pour nous proposer quelque chose qui ressemble à une idée (ou une image ou un morceau de texte). Pour la machine, il s’agit juste de combiner une grande quantité de données. Pour nous, il s’agit de regarder cette combinaison afin d’utiliser notre propre jugement en tant qu’humains créatifs pour demander : « est-ce que cela m'inspire ? », « pouvons-nous travailler avec cela ? », et si ce n'est pas le cas, nous le rejetterons tout simplement et nous demanderons au système de trouver une autre chose, encore et encore, jusqu'à ce que quelque chose semble valoir la peine d'être poursuivi.

Utiliser le modèle d’IA GPT-3 lors d'une séance d'idéation pour concevoir la solution d’un problème

Le Generative Pre-trained Transformer 3 (GPT-3) est un récent (mai 2020) modèle (d’IA) de langage créé par OpenAI qui est capable de générer du texte écrit d'une telle qualité qu'il est souvent difficile de le différencier d'un texte écrit par un humain. La version complète de GPT-3 a une capacité de 175 milliards de paramètres de Machine Learning. Pour vous donner une idée de ce que cela représente, avant la sortie de GPT-3, le plus grand modèle linguistique était le modèle Turing-NLG de Microsoft, lancé en février 2020, avec une capacité de 17 milliards de paramètres, soit moins d'un dixième du modèle GPT-3.

Si vous avez assisté à une séance de brainstorming, à une séance d'idéation ou si vous avez eu juste besoin de générer plusieurs idées pour résoudre un problème, vous savez que parfois nous ne sommes pas inspirés ou notre esprit est trop occupé par d'autres choses. Dans ce contexte, nous avons toujours du mal à générer de nouvelles idées.

Dans mes recherches sur la façon dont les groupes de conception travaillent ensemble (Galindo et Cerisier, 2019), j'ai observé que 3 éléments contribuent à générer (par le groupe) des solutions inventives (Pentland, 2015) : 1) La quantité d'idées échangées ou communiquées entre les membres du groupe, 2) La distribution de l'information (comment l'échange et la communication des idées générées par les membres du groupe sont distribués), et 3) La diversité des contextes des membres du groupe (ainsi, chaque membre apporte son « monde » dans le groupe à travers ses idées). Un autre élément intéressant que j'ai observé est l'importance d’encourager les membres du groupe à construire à partir des idées des autres individus. Le problème est que s'il n'y a pas d'idées initiales, le processus aura du mal à entrer dans la dynamique de collaboration décrite ci-dessus, et c'est là qu'un modèle comme le modèle d’OpenAI GTP-3 pourra probablement faciliter un groupe à devenir plus créatif ou plus inventif.

Commençons par exemple par la définition du problème suivant : comment pourrions-nous aider les élèves (ou les étudiants) à mieux travailler ensemble à distance ? Quand je commence un processus d'idéation de solutions, j'aime bien commencer par ce genre de formulation. Souvent, je demande aux gens d’utiliser cette formulation pour définir clairement leur problématique.

J'ai donc entraîné un modèle utilisant GTP-3 pour nous permettre de poser cette question au système d’IA lorsque nous avons besoin d'inspiration pour générer de nouvelles idées. Examinons quelques-unes des réponses que nous pouvons obtenir :

--1--
Je pense qu'il y a certaines limites à l'utilisation de projets virtuels, ainsi que de projets "en face à face". Par exemple, les élèves peuvent être réticents à l'idée de rendre des comptes en ligne et ils peuvent avoir besoin de plus d'interaction en face à face.

--2--
Une partie de la réponse découle d'une réunion de conférence tenue sur l'équipement satellite à Fort Meade, sur les alternatives aux salles de classe conventionnelles ; elle a évolué en un manuel distribué au personnel du LRFL à utiliser comme guide pour les propositions à la Division de la formation des étudiants. Q : Quelle est la meilleure façon de s'assurer que les étudiants, le corps professoral et le personnel connaissent et comprennent leurs rôles et responsabilités ? R : Nous avons adopté une nouvelle politique sur la liberté académique, le certificat de fin d'études et le DEPS.

--3--
Pensez à modéliser une collaboration efficace.

Les trois phrases ci-dessus sont un exemple des premières idées que j'ai reçues du système d’IA. Nous pouvons obtenir différents types d'idées, parfois avec des pistes intéressantes, parfois ce sont juste des définitions, mais avec des mots que nous pouvons utiliser pour notre processus d'idéation (comme le mot collaboration dans le dernier exemple ci-dessus). Parfois nous obtiendrons une phrase que nous pouvons simplement jeter à la poubelle et demander une nouvelle phrase. Il ne faut pas oublier que c'est nous qui sommes créatifs, la machine ne fait que nous donner des idées que notre créativité décidera ou non de poursuivre.

Le processus décrit ci-dessus est un processus individuel. Pour enrichir ce processus, nous pouvons utiliser une méthode collective pour encourager les individus de notre groupe à construire à partir des idées des autres individus. Je demande généralement aux membres d’un groupe de prendre une idée, et à partir de cette idée, d'imaginer une nouvelle idée, une action ou une question. Si nous ne sommes pas inspirés, nous pouvons utiliser à nouveau la machine (le modèle d’IA) pour nous aider à générer une nouvelle idée, une action ou une question. Ce processus créera une chaîne d'idées, d'actions et de questions, produit d'un processus créatif individuel, mais également d'un processus créatif collectif.

Les défis de ce type de systèmes d'intelligence artificielle

L'un des plus gros problèmes de ce type de systèmes d’IA (comme GPT-3) est la confiance. Certains chercheurs (McGuffie et Newhouse, 2020) ont par exemple montré le perfectionnement de ce type de systèmes dans la génération de textes extrémistes imitant un contenu interactif, informatif et influent qui pourrait être utilisé pour radicaliser des individus dans des idéologies et des comportements extrémistes.

Comme le remarque le chercheur Frens Kroeger, pour augmenter la confiance des systèmes d’IA (comme GPT-3), il faudra que les gens fassent confiance aux systèmes d'IA comme ils font confiance à l'aviation. Lorsque nous montons dans un avion, nous avons l'impression, à première vue, de faire confiance au produit - l'avion et le service qu'il fournit - mais en réalité, notre confiance repose sur notre connaissance du système au sens large. Nous ne sommes pas des experts de l'aviation, mais nous savons qu'elle est régie par un appareil réglementaire, qu'il existe des systèmes permettant d'empêcher un pilote de voler en état d'ébriété, des règles concernant la fréquence d'entretien des avions, etc. Il s'agit d'une connaissance de ce système, mais il s'agit d'une connaissance sociale, quotidienne — la connaissance de quelqu'un qui n'est pas un expert en technologie.

Selon Joseph Henrich, le cerveau humain ne s'est pas démarqué par l'intelligence individuelle, mais par les connaissances et le savoir-faire cumulés à travers le temps. Tous les apports culturels qui se sont transmis au fil des générations ont renforcé la cognition des humains et les ont aidés à résoudre des problèmes complexes (techniques, sociaux, etc.).

Chaque intelligence individuelle provient de la capacité sociale d'apprendre et d'enseigner des compétences générales et de les utiliser dans un cadre culturel précis. À mon avis, nous devons considérer les systèmes d'IA à partir de ce point de vue, sans oublier d'inclure tous les acteurs d'un contexte particulier.

Ségolène Dubernet

Directrice Enseignement supérieur-Recherche-Innovation chez Grand Poitiers

3 ans

Merci

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets