Faut-il suspendre les recherches sur les IA génératives ?
Appliquons le principe de précaution à ChatGPT !
Coup de tonnerre au milieu du vacarme des IA génératives ! Après une série d'annonces à un rythme toujours plus rapide (à suivre quotidiennement sur Human Innovate et mensuellement sous forme de newsletter), voici que 1000 signataires dont des figures de l'IA demandent un moratoire sur la recherche et surtout la diffusion des IA génératives comme ChatGPT.
Pour soutenir leur demande, les experts posent 4 questions importantes :
Ces spécialistes de la Silicon Valley, d'ordinaire d'ardents supporters de la libre concurrence et de l'individualisme, en appellent brusquement à la régulation des Etats et à la démocratie. Il s'agit en somme d'appliquer le principe de précaution, comme l'humanité l'aurait déjà fait pour le clonage humain ou d'autres technologies terrifiantes.
Dans cet article, je vais essayer d'analyser un peu cette annonce. Tout d'abord, je remonterai au jour qui a tout changé, puis j'aborderai le concept fondamental de l'AGI (Artificial General Intelligence), pour ensuite m'interroger sur les motivations de certains des signataires et sur les liens avec les positions d'OpenAI.
Pour finir, je m'interrogerai sur le réalisme de la proposition et je conclurais en revenant sur les questions initiales. Un article assez conséquent sur un sujet qui, je l'espère, vous intéressera.
Le jour qui a tout changé
Je ne peux résister à la tentation de remonter le temps :
"Les gens disent que ChatGPT est vraiment cool parce qu'il peut écrire ma dissertation de lycée pour moi". Larry Ellison, 9 mars 2023 lors de l'annonce des résultats Q3 2023 d'Oracle
Bon, quand on est visionnaire, ça ne marche pas à tous les coups, Larry le sait d'expérience...
"En termes de techniques sous-jacentes, ChatGPT n’est pas particulièrement innovant. Il n’y a rien de révolutionnaire, même si c’est la façon dont il est perçu par le public". Yann LeCun, 23 janvier 2023. Yann est Directeur IA chez Meta (et prix Turing)
Bon, on voit un léger décalage avec le ton de la lettre ouverte.
En vérité, le moment qui a tout changé, c'est bien sûr le 30 novembre 2022. Car ce qui transforme potentiellement une invention en innovation, c'est l'usage. C'est donc bien la mise à disposition gratuite à grande échelle qui a fait rentrer ChatGPT dans l'histoire. D'une certaine manière, ce jour-là, OpenAI a ouvert la boite de Pandore.
Le point de bascule a été immédiat car les enfants et les étudiants ont instantanément compris l'intérêt de ChatGPT pour répondre aux exigences actuelles de l'école. Et quand on touche à l'école...
Pour comprendre la polémique actuelle, il est essentiel de remonter à la création d'OpenAI : en 2015, Sam Altman (actuel CEO) s'associe avec Elon Musk mais également Greg Brockman et Ilya Sutskever pour créer OpenAI soutenu par des financeurs comme Reid Hoffman (cofondateur de Linked) et Peter Thiel. Au départ, OpenAI est une fondation qui se donne pour objectif de développer une Artificial General Intelligence (ou AGI) qui profite à tous. C'est seulement en 2019 et donc après le départ d'Elon Musk qu'OpenAI crée une filiale commerciale afin de lever des fonds.
Oui, vous avez bien lu ! Une AGI !
Est-ce que GPT5 sera une AGI ?
Même si les définitions diffèrent, une AGI est un système capable d'apprendre et d'effectuer n'importe quelle tâche qu'un humain serait capable de faire (wikipédia). Cela nécessite d'une part de savoir traiter de tous les domaines (ce que ChatGPT commence à savoir faire) mais également d'avoir la capacité d'interagir avec l'environnement (ce qui nécessite des "sens" ainsi qu'une capacité d'action) et de s'adapter à des nouvelles tâches et situations. Et je ne parle pas de conscience de soi ou de sentiments, des sujets qui font débats y compris entre les spécialistes eux-même. En tant que robot conversationnel, il est évident que ChatGPT, quel que soit sa version, n'est pas et ne sera pas une AGI. Rappelons-nous que GPT veut dire "Generative Pre-trained Transformer". Un générateur de texte n'a jamais rangé sa chambre ni moissonné un champ. A l'inverse, il existe des tracteurs quasiment autonomes. Donc si on combine un GPT avec d'autres technologies (comme celles utilisées dans les Tesla par exemple), on pourrait s'en rapprocher.
Alors pourquoi les signataires encouragent la recherche dans les autres domaines de l'IA pour s'attaquer spécifiquement à l'IA générative ?
Les arrières pensées des signataires
Le cas Elon Musk
Depuis son départ du conseil d'administration d'OpenAI, Elon Musk a acheté Twitter pour 44 milliards de dollars. Un pari très risqué car depuis son changement de propriétaire, Twitter a perdu la moitié de sa valeur. Aujourd'hui, l'entrepreneur se débat pour que Twitter ne soit pas totalement noyé sous du contenu de plus en plus généré par des outils tels que ChatGPT. Donc, sans même parler des liens personnels qu'il a pu tissé avec Sam Altman et l'équipe d'OpenAI, on voit bien qu'il agit suivant son intérêt.
Recommandé par LinkedIn
Les autres signataires
Certains des autres signataires comme Emad Mostaque (Stability AI), Yoshua Bengio (Element AI) ou encore les chercheurs de chez DeepMind (propriété d'Alphabet) ont de solides intérêts dans des entreprises qui se livrent actuellement une concurrence féroce. Ils sont certainement bien placés pour avoir une opinion informée sur les risques (et les bénéfices !) de l'IA mais au vu l'avance prise par OpenAI, on peut douter de leur indépendance dans leur prise de position.
Une belle publicité pour OpenAI
Cette lettre a, à mon sens, un effet paradoxal : elle fait le jeu d'OpenAI. En effet, lors d'une interview avec ABC, Sam Altman, CEO de OpenAI a clairement indiqué :
Dans un esprit typiquement Lean Startup, Sam Altman a pris tout le monde de vitesse pour tester son produit et l'améliorer sans attendre qu'il soit parfait.
A noter qu'il a également déclaré être prêt pour "débrancher" ChatGPT en cas de besoin. Si les différents offreurs de GPT sont en mesure, comme OpenAI, de débrancher le système alors le principe de précaution ne devrait s'appliquer car il doit s'appliquer uniquement en cas de conséquences irréversibles.
A l'inverse, si les systèmes des concurrents ne sont pas débranchables (ce qui est probable vu la diffusion), alors cela met OpenAI dans une position favorable.
Est-ce réaliste ?
C'est certains, l'annonce va faire du buzz. Mais en réalité, il s'agit plus de gesticulation que d'une proposition réellement applicable :
Et sur le fond ?
Bah, oui, il faudrait quand même en parler, non ?
Acceptons-nous de laisser les machines inonder nos canaux d’information, de propagande et de mensonges ?
Acceptons-nous d'automatiser tous les emplois, y compris ceux qui sont gratifiants ?
Acceptons-nous de développer des esprits non humains qui pourraient un jour être plus nombreux et plus intelligents que nous, nous rendre obsolètes et nous remplacer ?
Acceptons-nous de risquer de perdre le contrôle de notre civilisation ?
Voilà, tout ça est écrit un peu à chaud, alors n'hésitez pas à réagir, ça nous permettra de faire avancer le débat.
Recherche-Innovation en diagnostics et résolution de problèmes complexes
1 ansMerci d'avoir pris le temps de ce partage dans un article. Pour répondre à ta proposition d'échange de vue j'ajouterais deux choses : Sur le fait d'être dépassé, oui nous allons l'être. Mais c'est déjà le cas : le collectif dépasse l'individu. Selon le principe de l'émergence la sociologie (le collectif) n'est pas réductible à la psychologie (l'individu). L'IA suivra le principe d'émergence, elle sera autonome et ne sera plus réductible à l'humaine même si elle se base sur l'humain (je sais, c'est un peu philosophique / métaphysique comme reflexion). L'autre grand sujet pas trop présent dans le débat c'est celui de l'énergie. Certes ces outils ont un côté bluffant. Mais si on les rapporte à leur consommation d'énergie ils sont ridicules par rapport au ratio intelligence/énergie que l'évolution de la nature a produit. Aujourd'hui l'intelligence dont l'humanité a besoin c'est celle qui consomme moins d'énergie. Le jour où l'énergie nécessaire à une IA pour rédiger un texte ou résoudre un problème complexe sera inférieure à la consommation énergétique de l'intelligence humaine là on pourra parler de quelque chose de bluffant et à étendre
Responsable Partenariats Stratégie et Développement Territorial
1 ansBonjour Dominique, c’est bien toi l’auteur de ce post et non un GPT?
Consultant | Innovation Management, System Engineering
1 ansMerci Dominique pour tes analyses et ton rôle de catalyseur de l'intelligence humaine (enfin... on essaie 🙄😉) Je constate à ce stade que l'on retrouve avec ChatGPT des approches techno push à l'image de la politique Google... on fait tester l'outil par les utilisateurs et on propose après un service payant. Dans le cas de la manipulation de la connaissance, il est certain que les applications deviennent vites incontrôlables, aussi si je reste d'un point de vue purement Business et au risque d'être un brin sardonique je dirais que cette suspension est avant tout la résultante d'une perte de contrôle des business models potentiels... Belle journée
🤝 J'aide les PME B2B SaaS & Digitales à vendre en direct et à travers leur Ecosystème 🎛️ Conseil 🌠 Mentoring Ventes ➕ Marketing ➕Ecosystème Partenaires
1 ansExcellente analyse à chaud comme d'habitude Dominique Van Deth ....une vraie série tv cette histoire 😉
🌱🌍 Data & AI solutions manager
1 ansMerci Dominique pour ce partage. Les sujets de fond, ce sont les impacts sur notre écosystème, la sécurité et la nécessité de mettre en place un code éthique et de la régulation. Ces mêmes signataires auraient pu agir sur ces points depuis des années.