Habermas machine

Habermas machine

Savez-vous ce qu'est qu'une "Habermas machine" ? Et bien j'ai appris que c'est un système d’intelligence artificielle développé par Google DeepMind, nommé en hommage au philosophe allemand Jürgen Habermas. Et ce système est conçu pour faciliter les discussions de groupe et aider à atteindre un consensus sur des sujets controversés.

Ça commence fort.

 L’idée centrale de cette machine repose sur le principe de médiation en caucus, où l’IA agit comme un médiateur en rencontrant individuellement les participants pour recueillir leurs points de vue, puis en générant des déclarations de groupe qui cherchent à refléter les perspectives majoritaires et minoritaires. Le processus fonctionne en trois étapes principales:

  1. Un modèle génératif basé sur un modèle de langage de grande taille (LLM) génère plusieurs propositions de déclarations de groupe à partir des déclarations individuelles des participants;
  2. Un modèle de récompense analyse ces propositions pour prédire leur acceptabilité par chaque participant;
  3. La déclaration de groupe ayant le score d’acceptation le plus élevé est ensuite présentée aux participants, qui peuvent la critiquer et fournir des retours.

Ce cycle se répète jusqu’à ce qu’une déclaration acceptable pour tous soit trouvée.

J'ignorais totalement ce concept jusqu'à ce que je tombe sur le post LinkedIn de Loïc Blondiaux, professeur de science politique à l'université Panthéon Sorbonne. Et il parait que les tests effectués avec la Habermas machine ont montré qu’elle pouvait surpasser les médiateurs humains en termes de taux d’acceptation des déclarations de groupe. Par exemple, dans des discussions sur des sujets tels que la réduction du nombre de personnes en prison ou l’accueil des demandeurs d’asile, l’IA a réussi à augmenter le taux d’accord parmi les participants, les laissant moins divisés qu’au début.

Et le post LinkedIn de Loïc Blondiaux, faisait état que récemment, un groupe de chercheurs anglais a développé une “Habermas machine” pour aider à la délibération démocratique, donnant comme référence un article explorant les implications de cette innovation et les réactions qu’elle a engendrées, ce qui évidemment n'a pas manqué de susciter un débat animé dans les commentaires sur son post.

Son post commençait donc par la question suivante : “l’IA pourra-t-elle être mise au service de la démocratie délibérative ? Il faisait ensuite allusion à la "Habermas machine " du groupe de chercheurs anglais, qui ont cherché à savoir si l’intelligence artificielle (IA) pouvait aider les groupes à parvenir à un consensus lors d’un débat démocratique, puis expliquait que les auteurs avaient formé un modèle linguistique pour servir de médiateur IA, afin d'aider de petits groupes britanniques à trouver un terrain d’entente tout en discutant de questions politiques conflictuelles telles que le Brexit, l’immigration, le salaire minimum, le changement climatique et la garde d’enfants universelle. La conclusion étant que comparés aux médiateurs humains, les médiateurs IA ont produit des déclarations plus acceptables qui ont généré un large accord et ont laissé les groupes moins divisés. Les déclarations de l’IA étaient plus claires, logiques et informatives sans aliéner les points de vue des minorités. Un travail qui a forcément des implications politiques sur le potentiel de l’IA à unifier des groupes profondément divisés.

Et les réactions à cette innovation, vous vous en doutez bien, ont été variées et souvent passionnées. Certains commentaires ont fait référence à des slogans de science-fiction comme “Weyland-Yutani Corporation” et “Building Better Worlds”, soulignant une certaine méfiance envers les promesses utopiques de l’IA. D’autres ont évoqué la contre-culture hippie de la Silicon Valley et le “capitalisme paradoxal” qui mêle utopie libertaire et recherche de profit. Cela dit, nulle ne fut dupe, puisqu'un point de critique récurrent dans tous les commentaires, concernait le titre de la publication, perçu comme trop publicitaire et biaisé, semblant promouvoir Google DeepMind. Les commentateurs ont exprimé des inquiétudes sur le fait que l’article affirme directement que l’IA peut aider à trouver un terrain d’entente dans les délibérations démocratiques sans poser de question. Autre angle abordé, les discussions ont également porté sur des questions philosophiques et éthiques. Certains ont remis en question la pertinence du test de Turing pour évaluer les IA modernes, suggérant la nécessité de concevoir un autre test. D’autres ont fait référence à Jürgen Habermas justement, et à ses idées sur les tournants dans la société, soulignant l’importance de comprendre les implications sociales et politiques de l’IA. Les préoccupations sur la polarisation et la corruption dans le monde actuel ont également été exprimées, avec des critiques des crimes ignorés et des dangers potentiels de l’IA dans la culture et la création artistique. Le rôle croissant des “Big Techs” dans la sphère politique et l’absence de neutralité technologique ont été soulignés comme des risques majeurs.

L’IA, en tant que technologie émergente, pose des défis importants pour la société. Les personnes ayant commenté ont souligné la nécessité d’un encadrement légal, philosophique et éthique pour juguler les risques associés à l’IA. Certains ont exprimé des craintes quant à la soumission à la technologie et à l’impact de l’IA sur la créativité humaine. Un commentaire a particulièrement attiré l’attention : “Le régalien mené par la cybernétique pose de sérieux problèmes éthiques. L’IAG m’apparaît comme une marionnette avec retour haptique prenant peu à peu la place du marionnettiste, pourtant ingénieur de sa propre création. Tout ce que l’homme a imaginé de dystopique par le passé glisse inexorablement vers son destin. ‘Nous le faisons car nous le pouvons’ sans réfléchir aux conséquences ou alors en parfaite connaissance des conséquences dans le sens de l'auto-destruction.”

Maintenant, pour que l’IA puisse réellement servir la démocratie délibérative, il est crucial de l’utiliser de manière responsable et éclairée. Cela implique de reconnaître ses limites et de mettre en place des régulations appropriées. Les chercheurs et les décideurs politiques doivent travailler ensemble pour s’assurer que l’IA est utilisée de manière éthique et bénéfique pour la société.

L’IA a le potentiel de transformer la manière dont nous délibérons et prenons des décisions collectives. Cependant, il est essentiel de rester vigilant face aux risques et aux défis qu’elle pose. D'ailleurs, comme le souligne un autre commentaire : “Le risque ne réside pas tant dans les capacités (fantasmées pour le moment) de la machine que dans notre positionnement. Rien de bon dans la soumission et l’illusion de la neutralité machinique.”

L’innovation présentée par les chercheurs anglais avec la machine Habermas ouvre des perspectives intéressantes pour l’utilisation de l’IA dans la délibération démocratique. Les réactions variées et souvent critiques montrent que cette technologie suscite des débats importants sur son rôle et ses implications. Mais si on l'accepte, alors, pour que l’IA puisse véritablement contribuer à un avenir meilleur, il est crucial de l’aborder avec prudence, éthique et une compréhension approfondie de ses impacts potentiels, car l'IA ne doit au grand jamais remplacer la réflexion humaine et la délibération éthique. La clé réside dans une utilisation équilibrée et responsable, où l’IA est un allié, non un maître.

Pour plus de détails, vous pouvez consulter l’article complet sur Science.


Martin Lessard

Président @ Convenio | Croissance et transformation numérique

1 mois

Vraiment très intéressant Stéphane Ricoul merci d’avoir partagé avec nous.

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets