Faut-il suspendre les recherches sur les IA génératives ?
Image générée par Midjourney

Faut-il suspendre les recherches sur les IA génératives ?

Appliquons le principe de précaution à ChatGPT !

Coup de tonnerre au milieu du vacarme des IA génératives ! Après une série d'annonces à un rythme toujours plus rapide (à suivre quotidiennement sur Human Innovate et mensuellement sous forme de newsletter), voici que 1000 signataires dont des figures de l'IA demandent un moratoire sur la recherche et surtout la diffusion des IA génératives comme ChatGPT.

Pour soutenir leur demande, les experts posent 4 questions importantes :

  • Acceptons-nous de laisser les machines inonder nos canaux d’information, de propagande et de mensonges ?
  • Acceptons-nous d'automatiser tous les emplois, y compris ceux qui sont gratifiants ?
  • Acceptons-nous de développer des esprits non humains qui pourraient un jour être plus nombreux et plus intelligents que nous, nous rendre obsolètes et nous remplacer ?
  • Acceptons-nous de risquer de perdre le contrôle de notre civilisation ?

Ces spécialistes de la Silicon Valley, d'ordinaire d'ardents supporters de la libre concurrence et de l'individualisme, en appellent brusquement à la régulation des Etats et à la démocratie. Il s'agit en somme d'appliquer le principe de précaution, comme l'humanité l'aurait déjà fait pour le clonage humain ou d'autres technologies terrifiantes.

Dans cet article, je vais essayer d'analyser un peu cette annonce. Tout d'abord, je remonterai au jour qui a tout changé, puis j'aborderai le concept fondamental de l'AGI (Artificial General Intelligence), pour ensuite m'interroger sur les motivations de certains des signataires et sur les liens avec les positions d'OpenAI.

Pour finir, je m'interrogerai sur le réalisme de la proposition et je conclurais en revenant sur les questions initiales. Un article assez conséquent sur un sujet qui, je l'espère, vous intéressera.

Le jour qui a tout changé

Je ne peux résister à la tentation de remonter le temps :

"Les gens disent que ChatGPT est vraiment cool parce qu'il peut écrire ma dissertation de lycée pour moi". Larry Ellison, 9 mars 2023 lors de l'annonce des résultats Q3 2023 d'Oracle

Bon, quand on est visionnaire, ça ne marche pas à tous les coups, Larry le sait d'expérience...

"En termes de techniques sous-jacentes, ChatGPT n’est pas particulièrement innovant. Il n’y a rien de révolutionnaire, même si c’est la façon dont il est perçu par le public". Yann LeCun, 23 janvier 2023. Yann est Directeur IA chez Meta (et prix Turing)

Bon, on voit un léger décalage avec le ton de la lettre ouverte.

En vérité, le moment qui a tout changé, c'est bien sûr le 30 novembre 2022. Car ce qui transforme potentiellement une invention en innovation, c'est l'usage. C'est donc bien la mise à disposition gratuite à grande échelle qui a fait rentrer ChatGPT dans l'histoire. D'une certaine manière, ce jour-là, OpenAI a ouvert la boite de Pandore.

Le point de bascule a été immédiat car les enfants et les étudiants ont instantanément compris l'intérêt de ChatGPT pour répondre aux exigences actuelles de l'école. Et quand on touche à l'école...

Pour comprendre la polémique actuelle, il est essentiel de remonter à la création d'OpenAI : en 2015, Sam Altman (actuel CEO) s'associe avec Elon Musk mais également Greg Brockman et Ilya Sutskever pour créer OpenAI soutenu par des financeurs comme Reid Hoffman (cofondateur de Linked) et Peter Thiel. Au départ, OpenAI est une fondation qui se donne pour objectif de développer une Artificial General Intelligence (ou AGI) qui profite à tous. C'est seulement en 2019 et donc après le départ d'Elon Musk qu'OpenAI crée une filiale commerciale afin de lever des fonds.

Oui, vous avez bien lu ! Une AGI !

Est-ce que GPT5 sera une AGI ?

Même si les définitions diffèrent, une AGI est un système capable d'apprendre et d'effectuer n'importe quelle tâche qu'un humain serait capable de faire (wikipédia). Cela nécessite d'une part de savoir traiter de tous les domaines (ce que ChatGPT commence à savoir faire) mais également d'avoir la capacité d'interagir avec l'environnement (ce qui nécessite des "sens" ainsi qu'une capacité d'action) et de s'adapter à des nouvelles tâches et situations. Et je ne parle pas de conscience de soi ou de sentiments, des sujets qui font débats y compris entre les spécialistes eux-même. En tant que robot conversationnel, il est évident que ChatGPT, quel que soit sa version, n'est pas et ne sera pas une AGI. Rappelons-nous que GPT veut dire "Generative Pre-trained Transformer". Un générateur de texte n'a jamais rangé sa chambre ni moissonné un champ. A l'inverse, il existe des tracteurs quasiment autonomes. Donc si on combine un GPT avec d'autres technologies (comme celles utilisées dans les Tesla par exemple), on pourrait s'en rapprocher.

Alors pourquoi les signataires encouragent la recherche dans les autres domaines de l'IA pour s'attaquer spécifiquement à l'IA générative ?

Les arrières pensées des signataires

Le cas Elon Musk

Depuis son départ du conseil d'administration d'OpenAI, Elon Musk a acheté Twitter pour 44 milliards de dollars. Un pari très risqué car depuis son changement de propriétaire, Twitter a perdu la moitié de sa valeur. Aujourd'hui, l'entrepreneur se débat pour que Twitter ne soit pas totalement noyé sous du contenu de plus en plus généré par des outils tels que ChatGPT. Donc, sans même parler des liens personnels qu'il a pu tissé avec Sam Altman et l'équipe d'OpenAI, on voit bien qu'il agit suivant son intérêt.

Les autres signataires

Certains des autres signataires comme Emad Mostaque (Stability AI), Yoshua Bengio (Element AI) ou encore les chercheurs de chez DeepMind (propriété d'Alphabet) ont de solides intérêts dans des entreprises qui se livrent actuellement une concurrence féroce. Ils sont certainement bien placés pour avoir une opinion informée sur les risques (et les bénéfices !) de l'IA mais au vu l'avance prise par OpenAI, on peut douter de leur indépendance dans leur prise de position.

Une belle publicité pour OpenAI

Cette lettre a, à mon sens, un effet paradoxal : elle fait le jeu d'OpenAI. En effet, lors d'une interview avec ABC, Sam Altman, CEO de OpenAI a clairement indiqué :

  • Qu'il avait rendu ChatGPT disponible le plus tôt possible afin que la société dans son ensemble puisse se préparer aux changements en cours.
  • Qu'il était conscient des risques de l'IA et que son entreprise travaillait dur pour y remédier. Voir à ce sujet les études auxquelles OpenAI participe sur les métiers ou sur la manipulation à grande échelle.
  • Qu'il travaillait activement avec les régulateurs

Dans un esprit typiquement Lean Startup, Sam Altman a pris tout le monde de vitesse pour tester son produit et l'améliorer sans attendre qu'il soit parfait.

A noter qu'il a également déclaré être prêt pour "débrancher" ChatGPT en cas de besoin. Si les différents offreurs de GPT sont en mesure, comme OpenAI, de débrancher le système alors le principe de précaution ne devrait s'appliquer car il doit s'appliquer uniquement en cas de conséquences irréversibles.

A l'inverse, si les systèmes des concurrents ne sont pas débranchables (ce qui est probable vu la diffusion), alors cela met OpenAI dans une position favorable.

Est-ce réaliste ?

C'est certains, l'annonce va faire du buzz. Mais en réalité, il s'agit plus de gesticulation que d'une proposition réellement applicable :

  • Tous les géants de la tech ont engagé d'énormes moyens dans la recherche en IA et on les voit mal s'arrêter d'un coup sans une forte pression des régulateurs
  • La logique prônée par certains de travailler en open source rend impossible de limiter la propagation du code
  • Des fuites comme celle de Meta sont, par nature, elles, irréversibles
  • Des versions low cost de ChatGPT ont été créées pour 600$ par des chercheurs de Standford
  • La régulation, si elle est sans doute nécessaire, prendra des années avant de voir le jour. Sans compter qu'il faudrait que la régulation soit effective au niveau mondial pour avoir un réel effet.

Et sur le fond ?

Bah, oui, il faudrait quand même en parler, non ?

Acceptons-nous de laisser les machines inonder nos canaux d’information, de propagande et de mensonges ?

  • C'est déjà le cas avec les réseaux sociaux et les robots de toutes sortes. Cela devient plus facile à faire et moins facile à détecter, mais pour aller au bout de la démarche de la sauvegarde de la démocratie, ne faudrait-il pas débrancher les réseaux sociaux pendant les périodes de campagne électorale ?

Acceptons-nous d'automatiser tous les emplois, y compris ceux qui sont gratifiants ?

  • Rien n'oblige à le faire. C'est donc de la responsabilité des entreprises. Ici, comme souvent, on confond l'outil et l'usage. D'ailleurs, Microsoft avec Copilot promet exactement l'inverse. D'après Satya Nadella, l'IA va même nous permettre de redonner du sens au travail (même si personnellement, je pense que c'est une chimère).

Acceptons-nous de développer des esprits non humains qui pourraient un jour être plus nombreux et plus intelligents que nous, nous rendre obsolètes et nous remplacer ?

  • Ici, on agite clairement le spectre de l'AGI. Or, comme je l'ai montré plus haut, ce n'est pas un GPT qui pourra se transformer par magie en AGI, même si développer un AGI reste l'objectif ultime d'OpenAI.

Acceptons-nous de risquer de perdre le contrôle de notre civilisation ?

  • A nouveau, la question posée est de savoir ce qu'on fait de l'outil. Les signataires expriment la crainte d'un mauvais usage ce qui montre une forme de pessimisme. C'est leur droit, mais ça semble insuffisant pour invoquer le principe de précaution comme il le font.
  • D'un certain côté, le contrôle pourrait déjà avoir été perdu. On peut regretter le système de recommandation d'Amazon ou de Netflix (grâce à l'IA) ou encore les ressorts addictifs utilisés par les jeux et les réseaux sociaux. Oui, ces nouvelles possibilités nous perturbent et c'est pourquoi il faut les accompagner, mais de là à les interdire, il faudrait fournir des arguments plus convaincants à mon sens.

Voilà, tout ça est écrit un peu à chaud, alors n'hésitez pas à réagir, ça nous permettra de faire avancer le débat.

Stève Duchêne

Recherche-Innovation en diagnostics et résolution de problèmes complexes

1 ans

Merci d'avoir pris le temps de ce partage dans un article. Pour répondre à ta proposition d'échange de vue j'ajouterais deux choses : Sur le fait d'être dépassé, oui nous allons l'être. Mais c'est déjà le cas : le collectif dépasse l'individu. Selon le principe de l'émergence la sociologie (le collectif) n'est pas réductible à la psychologie (l'individu). L'IA suivra le principe d'émergence, elle sera autonome et ne sera plus réductible à l'humaine même si elle se base sur l'humain (je sais, c'est un peu philosophique / métaphysique comme reflexion). L'autre grand sujet pas trop présent dans le débat c'est celui de l'énergie. Certes ces outils ont un côté bluffant. Mais si on les rapporte à leur consommation d'énergie ils sont ridicules par rapport au ratio intelligence/énergie que l'évolution de la nature a produit. Aujourd'hui l'intelligence dont l'humanité a besoin c'est celle qui consomme moins d'énergie. Le jour où l'énergie nécessaire à une IA pour rédiger un texte ou résoudre un problème complexe sera inférieure à la consommation énergétique de l'intelligence humaine là on pourra parler de quelque chose de bluffant et à étendre

Mohammed MALKI

Responsable Partenariats Stratégie et Développement Territorial

1 ans

Bonjour Dominique, c’est bien toi l’auteur de ce post et non un GPT?

💬 Laurent Martin 🎁

Consultant | Innovation Management, System Engineering

1 ans

Merci Dominique pour tes analyses et ton rôle de catalyseur de l'intelligence humaine (enfin... on essaie 🙄😉) Je constate à ce stade que l'on retrouve avec ChatGPT des approches techno push à l'image de la politique Google... on fait tester l'outil par les utilisateurs et on propose après un service payant. Dans le cas de la manipulation de la connaissance, il est certain que les applications deviennent vites incontrôlables, aussi si je reste d'un point de vue purement Business et au risque d'être un brin sardonique je dirais que cette suspension est avant tout la résultante d'une perte de contrôle des business models potentiels... Belle journée

Edouard Dupressoir

🤝 J'aide les PME B2B SaaS & Digitales à vendre en direct et à travers leur Ecosystème 🎛️ Conseil 🌠 Mentoring Ventes ➕ Marketing ➕Ecosystème Partenaires

1 ans

Excellente analyse à chaud comme d'habitude Dominique Van Deth ....une vraie série tv cette histoire 😉

Agnès Vugier

🌱🌍 Data & AI solutions manager

1 ans

Merci Dominique pour ce partage. Les sujets de fond, ce sont les impacts sur notre écosystème, la sécurité et la nécessité de mettre en place un code éthique et de la régulation. Ces mêmes signataires auraient pu agir sur ces points depuis des années.

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets