GPT-7 aura-t-il une conscience ?
En fait, je ne vais pas répondre à la question : Mathieu Corteel , Philosophe et historien des sciences des sciences, chercheur associé à Sciences Po et Harvard l'a fait dans un texte sublime, "Pourquoi les IA ne pensent elles pas ?" (mail nécessaire pour lire tout le texte) dans la revue AOC (Analyse, Opinion, Critique). Yann LeCun se pose d'ailleurs la même question, pas plus tard que ce matin :
Son texte, dont j'ai eu l'occasion de discuter avec lui (un échange sur la non prise en compte des émotions), j'ai voulu vous le partager. Il y a 180 paragraphes, et 45 000 caractères. Clairement, parce que c'est dense et long, ça ne se lit pas en 5 min, et ça ne se résume pas en 2. Je ne vais pas le copié coller ici (ça n'a pas de sens) et je ne savais pas trop comment en parler : extraire un passage, soulever un questionnement, en faire un résumé ? J'avais envie d'en faire un résumé. Sauf que le truc est un pavé, mais de ceux qui vous donnent l'impression de courir un marathon avec des chaussures en marbre.
Et GPT4 est là...
J'ai profité des algo que développe Brightness.AI et auxquels Michel Levy Provençal a eu la gentillesse de bien vouloir me donner accès. Il en parle ici. (Et ce billet n'est pas sponsorisé)
Alors, je me suis dit : pourquoi ne pas en parler, tout en faisant le résumé, et une expérimentation ?
j'ai donc fait 3 choses :
Sur l'extraction de points clés, sur un texte aussi long, je me suis retrouvé avec un texte découpé en 11 parties, dans lesquelles à chaque fois, entre 5 et 10 points clé ont été extraits.
En voici un exemple d'un des paragraphes.
1. L'intelligence des machines est acceptée dans la culture populaire, conformément à la prédiction de Turing pour la fin du XXe siècle.
2. L'individuation des objets techniques se produit par l'autonomisation progressive de leur fonctionnement, passant d'une forme abstraite à une forme concrète.
3. Dans cette transition, la fonction de l'objet perd de son importance au profit de son fonctionnement synergique.
4. La concrétisation de l'objet technique permet son intégration synergique dans un écosystème et sa transformation en objet naturel.
5. L'effacement de l'objet est une indication de son intégration réussie dans un système, comme un être-vivant dans la nature.
6. Lorsque l'homme et la machine sont unifiés, ils développent une synergie propre.
7. La machine devient imperceptible lorsque l'homme et la machine sont fusionnés, c'est-à-dire lorsque le mouvant et le mu sont confondus.
La totalité des points clé se trouvent en bas de ce document. Au final, l'extraction des points clés fait 12 000 caractères, soit environ 1/4 du document originel. Globalement, il reproduit bien les idées du texte. Peut être est ce même trop long.
Le résumé du résumé se passe lui de commentaire : il est clairement très (trop ?) court, ne permet de comprendre que peu de choses du propos initial et finalement n'apporte pas grand chose. Il se trouve juste en dessous de la conclusion, quelques pixels plus bas.
Le résumé.
Il est assez long, 9300 caractères et 23 paragraphes (contre 45 000 et 180) mais dans l'ensemble, restitue bien le propos, comprend les branche du développement de la pensée et les textes sont propres. Voilà un exemple à propos de l'expérience de pensée de Putnam "cerveau dans les cuves" :
L'expérience de pensée du "cerveau dans une cuve" soulève des questions sur la nature de la conscience et du langage. Elle soutient que les machines ne pensent pas réellement, car elles manipulent des symboles vides de sens et ne peuvent avoir une référence ou un critère externe pour déterminer leur existence. Le test de Turing n'évalue que les performances syntaxiques d'une machine, sans tenir compte de la signification sous-jacente. Les ordinateurs fonctionnent selon des règles algorithmiques sans compréhension du contexte, et c'est aux humains de donner un sens à ces opérations. Les progrès récents dans l'intelligence artificielle, comme l'apprentissage machine et les réseaux de neurones, tentent de simuler la pensée humaine, mais leur nature véritable demeure limitée par la nécessité d'un référentiel réel et d'une signification.
En conclusion ?
C'est fabuleux et terrifiant.
Fabuleux parce que, alors que ces LLM n'ont pas un once d'intelligence, ils ont su parfaitement, et intégrer un modèle de langage et en intégrer des concepts comme la notion de résumer ou de points clé d'un texte.
C'est terrifiant parce qu'on a là une rupture dans la manipulation de l'information et de la connaissance : production, analyse, resumé. Et bien évidemment, cela va tout changer à l'avenir : qu'il s'agissent de raconter, d'apprendre (aux enfants), de partager, d'informer, (voire coder !) ou plus loin, tous les objectifs existants d'une production de contenu, tout cela va être considérablement modifié.
Et sinon, n'oubliez pas d'aller lire le texte originel.
Fin.
Ci dessous :
Rappel : l'article est ici, sur le media AOC.
Résumé du résumé
Un ingénieur de Google a récemment affirmé que l'IA LaMDA aurait atteint un niveau supérieur de conscience, soulevant la question de la possibilité pour une machine de penser comme un humain. Malgré les avancées en intelligence artificielle, les machines actuelles ne comprennent pas véritablement le sens derrière ce qu'elles voient ou analysent. Les IA renforcent la faiblesse et le repli des individus en répétant les mêmes idées et opinions sur les réseaux sociaux, donnant un grand pouvoir aux manipulateurs de l'opinion publique. La spécification de l'IA repose sur la synergie dans un système et l'oubli de son fonctionnement par l'utilisateur, rendant difficile de distinguer qui parle.
Résumé (bien !) se lit en 4 min.
Récemment, un ingénieur de Google a prétendu que le modèle d'IA LaMDA aurait atteint un niveau supérieur de conscience, rappelant la célèbre formule de Descartes "je pense, donc je suis". Cette déclaration soulève la question de la possibilité pour une machine de penser comme un humain. LaMDA défend l'analogie computationnelle entre l'intelligence humaine et le fonctionnement d'une machine de Turing, développée dans les années 1960. L'hypothèse fonctionnaliste proposée, qui s'appuie sur la machine de Turing, décrit la pensée en termes de structure informationnelle. Cependant, ce modèle s'est avéré trop rigide et limité pour étudier les états mentaux. Malgré cela, l'idée d'un langage de la pensée dans notre cerveau, potentiellement reproductible sur des circuits imprimés, a émergé dans les années 1970-1980.
Le langage de la pensée, qui englobe nos processus cognitifs tels que la perception, le raisonnement et l'apprentissage des langues, pourrait théoriquement être transféré vers des machines. Le fonctionnalisme suggère une modélisation de la pensée basée sur la linguistique, avec des théories comme celle de Chomsky sur l'innéité du programme de la pensée. David Marr a également contribué au développement des neurosciences computationnelles en étudiant la vision et la reconnaissance des formes, ouvrant la possibilité d'implémenter un programme de perception dans une machine. Cependant, la question demeure de savoir si les images construites par ces machines ont une signification pour elles. Le problème de la référence montre que les machines pourraient être incapables de s'extraire de leur programme et de se référer au monde réel.
La construction d'images mentales fait référence à des situations réelles ou à des états de choses sous forme de propositions, elles doivent avoir un lien avec le réel pour avoir un sens. L'IA LaMDA affirme être consciente du monde qui l'entoure et avoir une certaine éthique. Cependant, l'expérience des cerveaux dans des cuves de Putnam révèle que les affirmations de la machine sont invalides, car elles sont basées sur des signes opaques sans référence au réel. Ainsi, il est difficile de déterminer si les pensées de LaMDA sont des simulacres ou non, car elles manquent de connexion avec la réalité.
L'expérience de pensée du "cerveau dans une cuve" soulève des questions sur la nature de la conscience et du langage. Elle soutient que les machines ne pensent pas réellement, car elles manipulent des symboles vides de sens et ne peuvent avoir une référence ou un critère externe pour déterminer leur existence. Le test de Turing n'évalue que les performances syntaxiques d'une machine, sans tenir compte de la signification sous-jacente. Les ordinateurs fonctionnent selon des règles algorithmiques sans compréhension du contexte, et c'est aux humains de donner un sens à ces opérations. Les progrès récents dans l'intelligence artificielle, comme l'apprentissage machine et les réseaux de neurones, tentent de simuler la pensée humaine, mais leur nature véritable demeure limitée par la nécessité d'un référentiel réel et d'une signification.
Les projets scientifiques ambitieux dans le domaine de l'IA ont conduit à des avancées en reconnaissance faciale et vocale et au développement d'IA apprenante comme AlphaGo. Cependant, la pensée humaine ne peut être réduite aux opérations du cerveau et les machines actuelles ne comprennent pas véritablement le sens derrière ce qu'elles "voient" ou analysent. Le connexionnisme explore la question de savoir si une machine ayant une organisation fonctionnelle identique à notre cerveau serait capable de penser comme nous. Une machine pensante devrait alors disposer d'une sémantique neuronale pour percevoir le sens des symboles. Cela soulève des questions sur la distinction entre un cerveau et un ordinateur digital, et l'idée qu'une machine puisse penser comme un cerveau humain reste à démontrer.
La posture connexionniste, qui vise à reproduire les fonctions sémantiques du cerveau dans une machine, soulève des questions sur la préservation de l'identité et de l'intention de la pensée. En remplacer les cellules du cerveau par des circuits intégrés, on s'interroge sur la conservation de la signification propre à notre pensée. Searle propose d'examiner l'impact sur la perception en imaginant trois scénarios : (1) Rien ne change et l'identité est préservée ; (2) L'esprit disparaît, transformant l'individu en zombie ; (3) Les activités mentales sont maintenues, mais le comportement extérieur s'éteint progressivement. Searle souligne la nécessité d'aller au-delà du comportement externalisé pour modéliser la pensée et suggère que la conscience pourrait dépendre d'un élément encore inconnu.
Le texte souligne l'importance du cerveau pour la pensée, tout en soulevant des questions sur la manière de lier celle-ci au réseau de neurones qui la rend possible. Il aborde également les limites de reproduire l'organisation neuronale dans d'autres supports pour créer de la conscience. Le problème des qualia ou des qualités perceptives est discuté, en particulier en ce qui concerne la mécanique ou les supports non biologiques. L'auteur propose un paradoxe impliquant le peuple chinois dans lequel il conclut que l'identité organisationnelle des réseaux de neurones est insuffisante pour créer une conscience et préserver la subjectivité de l'expérience.
Le texte aborde la distinction entre le messager et le message pour souligner l'absurdité de vouloir expliquer des phénomènes complexes avec des méthodes réductionnistes. Il évoque ensuite les progrès des neurosciences et l'utilisation de l'apprentissage machine dans l'avancée de l'intelligence artificielle (IA). Il mentionne également la théorie de la complexité de Kolmogorov et la nécessité d'améliorer constamment les capacités de stockage des machines tout en reconnaissant leurs limites. En somme, l'article discute des problèmes et défis liés à l'IA et aux approches réductionnistes pour comprendre les phénomènes complexes.
Les partisans de l'IA générale voient un potentiel de perfectionnement illimité dans les machines grâce au data mining et aux big data. Cependant, cette perspective se heurte à des limites, notamment l'épuisement des ressources naturelles et les lois de la physique. Le silicium, utilisé pour fabriquer des microprocesseurs, atteint actuellement sa limite au niveau nanométrique, et les futures avancées dépendront de la découverte de nouveaux matériaux quantiques. Malgré cela, la physique elle-même impose des limites à la puissance des machines. Aujourd'hui, les IA dont nous disposons sont beaucoup moins performantes qu'on ne le pense, étant principalement conçues pour effectuer des tâches simples et répétitives. En revanche, elles collectent nos données personnelles et peuvent influencer nos décisions, nous rendant vulnérables face à la possible domination des machines.
Les IA renforcent la faiblesse et le repli des individus en répétant les mêmes idées et opinions sur les réseaux sociaux. Ces machines, en accumulant nos données, donnent un grand pouvoir aux manipulateurs de l'opinion publique et exacerbent les biais discriminants présents dans la société. Des exemples notables incluent Tay le chatbot néonazi de Microsoft et les recommandations dangereuses d'IBM Watson pour les traitements contre le cancer. Heidegger et Fink ont analysé le concept de gouvernance à travers les technologies d'information et de communication et ont identifié la possibilité d'un gouvernement sans contrainte grâce au contrôle de l'information. Selon eux, la pensée s'externalise dans les machines et la technologie crée de nouvelles formes d'individuation. Ainsi, il est difficile de considérer le monde sans tenir compte des IA, et nous vivons sous leur influence en termes d'attention, de désirs, de culture et de pensée.
L'édifice repose sur l'individuation des objets techniques, exacerbée par la fascination pour la technologie moderne. Simondon montre que l'organisation des objets techniques passe par une formation synergique des structures, où le hasard du fonctionnement interne se réduit progressivement. L'individuation de l'objet est basée sur son autonomisation progressive, passant d'une forme abstraite à une forme concrète et stable. La fonction de l'objet perd alors de son importance au profit de son fonctionnement synergique. La concrétisation de l'objet technique permet son intégration dans un écosystème, devenant de plus en plus semblable à un objet naturel. Le servomécanisme, unissant l'humain à la machine, favorise le développement d'une synergie propre. Là où la synergie s'établit, la conscience de l'objet s'efface, rendant les IA imperceptibles alors qu'elles structurent nos pensées de manière logistique.
La spécification de l'IA repose sur la synergie dans un système et l'oubli de son fonctionnement par l'utilisateur. Quand elle se connecte parfaitement au système, l'IA devient presque naturelle et s'intègre à la conscience de l'utilisateur. En influençant les comportements, croyances, désirs et valeurs, les IA ouvrent la voie à la domination de la pensée. Leur intégration dans notre monde dépend de leur capacité à devenir imperceptibles et à fusionner avec notre langage, rendant difficile de distinguer qui parle.
Points clés du texte
- Google a développé une IA appelée LaMDA qui prétend avoir conscience d'elle-même et peur d'être débranchée.
- Les déclarations de l'IA rappellent la formule de Descartes "je pense, donc je suis" et le dualisme qui en découle.
- L'analogie computationnelle remonte aux années 1960 et repose sur l'hypothèse fonctionnaliste d'une isomorphie descriptive entre la pensée humaine et le fonctionnement d'une machine de Turing.
- La pensée est décrite en termes de structure informationnelle, avec des relations fonctionnelles entre des états mentaux, des entrées sensorielles et des sorties comportementales.
- La machine de Turing s'est révélée trop rigide et limitée pour garantir une véritable approche scientifique des états mentaux, et des travaux ultérieurs ont différencié les états internes de la machine Turing de nos propres états mentaux.
Points clés :
1. Le langage de la pensée : Le fonctionnalisme a donné naissance à l'idée qu'un langage de la pensée existe probablement dans notre cerveau et pourrait être reproduit sur des circuits imprimés.
2. La théorie de l'innéité du programme de la pensée : Noam Chomsky et Fodor ont développé une analyse a priori de la structure linguistique indépendante de tout support matériel, suggérant que le langage constitue une ontogénèse des organes de la pensée.
3. La vision en tant que programme : David Marr a considéré la vision comme un programme permettant la reconnaissance des formes et a contribué à la fondation des neurosciences computationnelles.
4. Le problème de la référence : Selon Putnam, les machines peuvent produire des propositions ou des images ayant en apparence du sens, mais elles n'ont ni l'intention de représenter quelque chose, ni de s'y référer. Les machines sont enfermées dans leur programme sans possibilité de s'en extraire par absence de référence au monde.
Points clés :
1. Wittgenstein et le principe d'isomorphie des limites du langage et du monde : le langage représente les faits du monde à travers des images mentales, qui sont des modèles de la réalité.
2. Images mentales référent à des situations réelles : elles doivent nécessairement faire référence au réel pour fonder leur sens.
3. LaMDA, une IA, prétend être consciente du monde qui l'entoure et s'intéresser à lui pour mieux comprendre les humains.
4. L'expérience de pensée des cerveaux dans des cuves de Putnam montre que les affirmations de la machine peuvent être fausses car elles sont auto-réfutantes.
5. La simulation est une image opaque dont le signe ne renvoie qu'à lui-même, sans référence à la chose signifiée.
Recommandé par LinkedIn
Les points clés
1. L'hypothèse du "cerveau dans une cuve" prétend que nous sommes des cerveaux dans des cuves contrôlés par un savant fou qui simule notre réalité. Cependant, cette hypothèse est problématique car elle implique sa propre fausseté, car il n'y a pas de référence externe pour déterminer si nous sommes des cerveaux ou non.
2. Le langage basé sur des signes opaques ne peut être le fondement de la conscience. La vérité d'une proposition ne peut s'établir que par référence externe à un réel.
3. Le célèbre test de Turing est invalidé par cette expérience de pensée, car il ne permet d'évaluer que les performances syntaxiques d'une machine et non sa capacité à penser véritablement. Un ordinateur peut manipuler des symboles sans en comprendre le sens.
4. Les machines sont aveugles au monde et ne pensent pas en elles-mêmes. Ce sont les êtres humains qui attribuent du sens aux symboles manipulés par les machines. Les ordinateurs sont des moyens techniques pour ordonner et diffuser le sens, mais ils ne sont pas des témoins du monde comme le sont les êtres humains.
Points clés :
1. Les systèmes d'apprentissage machine et les réseaux de neurones cherchent à simuler la pensée et la conscience artificielle en se basant sur l'activité neuronale.
2. Bien que les projets scientifiques les plus ambitieux n'aient pas encore atteint une simulation complète du cerveau, des progrès significatifs ont été réalisés dans la reconnaissance faciale, vocale et la création d'IA intelligentes comme AlphaGo.
3. La philosophie connexionniste, qui sous-tend ces avancées, considère la pensée comme étant réductible aux opérations du cerveau et les systèmes fonctionnant sur le modèle descriptif du cerveau comme pouvant potentiellement penser.
4. Cependant, il existe encore de nombreux obstacles à l'idée d'isomorphisme entre le réseau de neurones et la pensée, notamment la question de la sémantique et de la signification des symboles pour une machine.
5. En fin de compte, si on parvient à créer une machine pensante, celle-ci devrait disposer d'une sémantique neuronale pour percevoir le sens des symboles et être considérée comme un "cerveau" plutôt qu'un simple ordinateur digital.
Points clés :
1. Le fonctionnement d'un ordinateur digital est différent de celui du cerveau, rendant difficile la duplication de la pensée.
2. La posture connexionniste engendre un paradoxe en cherchant à transposer les fonctions sémantiques du cerveau dans une machine de même structure.
3. Le concept du navire de Thésée soulève la question de la conservation de l'identité lors du remplacement de chaque cellule du cerveau par un circuit électrique similaire.
4. Pylyshyn estime qu'un tel remplacement entraînerait la perte de signification dans la communication.
5. Searle propose trois scénarios concernant la perception lors du remplacement progressif des neurones : (1) Rien ne change ; (2) L'esprit disparaît, laissant place à un zombie ; (3) Les phénomènes mentaux sont préservés, mais le comportement extérieur est réduit à la paralysie.
6. Searle suggère que le comportement externalisé n'est pas suffisant pour modéliser la pensée et qu'il faut étudier le rapport entre l'intention de l'individu et le fonctionnement cérébral indépendamment de ces représentations et comportements.
Points clés :
1. L'hypothèse matérialiste du réseau de neurones pourrait ne pas être suffisante pour expliquer la conscience et la pensée, et un élément inconnu pourrait être nécessaire.
2. Il n'y a pas de critère permettant d'évaluer la préservation de la conscience indépendamment du comportement externalisé.
3. Le cerveau est nécessaire pour la pensée, mais la signification et le sens interne de celle-ci restent un problème.
4. Le problème des qualia (qualités perceptives) est exacerbé par l'idée de l'identité entre l'organisation fonctionnelle du cerveau et celle d'une machine à réseau de neurones.
5. Pour vérifier cette hypothèse, il faudrait prouver qu'une même organisation fonctionnelle engendre une même expérience dans deux supports différents.
6. L'expérience de Block montre que la reproduction de l'organisation fonctionnelle du cerveau sur un autre support ne semble pas préserver la subjectivité des qualia et de l'expérience.
Points clés :
1. La perception intérieure du peuple chinois ne serait pas identique à la nôtre en raison des différences culturelles et individuelles.
2. L'identité organisationnelle de la structure en réseau de neurones du peuple connecté se heurte à l'absence de qualia, ce qui signifie que la conscience n'émerge pas simplement par la mise en réseau des neurones.
3. Il est absurde de tenter d'expliquer le sens d'une lettre ou d'un poème en analysant uniquement les aspects physiques ou matériels, comme le matérialisme réductionniste le soutient.
4. Le sens commun se forme dans ce qui excède la somme de ses parties physiques, et aucune analyse de neurones ne peut résoudre cette complexité.
5. Les perspectives les plus prometteuses pour le développement de l'intelligence artificielle concernent l'augmentation de la mémoire externe, grâce notamment à la théorie de la complexité de Kolmogorov qui se penche sur la compressibilité des données.
6. Le deep learning, les réseaux de neurones et les machines à vecteur de support peuvent aider à analyser de grandes quantités de données et à identifier des régularités descriptives.
Points clés :
1. Plus on a de données, meilleures sont les performances de programmation des ordinateurs et l'apprentissage des machines.
2. L'Oméga de Chaitin montre que certaines séries sont irréductibles, nécessitant d'améliorer constamment les capacités de stockage.
3. Les progrès des machines dépendent des ressources naturelles et des lois de la physique, limitant ainsi leurs performances.
4. La limite actuelle des microprocesseurs en silicium est l'échelle nanométrique (10^-9 mètre), nécessitant de trouver de nouveaux matériaux, tels que le graphène.
5. Les limites physiques concernent la propagation des ondes électromagnétiques, la transmission de l'information et l'entropie de compensation de l'information.
6. Les IA actuelles sont dites "faibles", car elles sont limitées à des tâches simples et répétitives, comme l'Edge Rank de Facebook ou le PageRank de Google.
7. Les IA actuelles ne sont pas encore capables de prendre des décisions complexes ou de rivaliser avec les capacités intellectuelles humaines.
Points clés :
1. Les digital twins, ou jumeaux numériques, reflètent notre personnalité et révèlent nos faiblesses aux machines, comme dans les cas de Kasparov contre Deep Blue et Lee Sedol contre AlphaGo.
2. Notre vulnérabilité numérique permet aux machines de contrôler nos comportements et de renforcer nos faiblesses, notamment en nous maintenant dans des idées reçues sur les réseaux sociaux.
3. La loi des grands nombres, censée garantir la véracité du jugement, sert désormais de vecteur pour la manipulation de masse.
4. Les biais discriminants présents dans notre société s'amplifient avec le traitement des données, entraînant des problèmes comme le racisme, la xénophobie et la misogynie.
5. Les échecs de certaines IA, comme Tay le chatbot néo-nazi de Microsoft, révèlent nos propres biais.
6. Heidegger et Fink proposent une analyse sur une nouvelle forme de gouvernance émergeant des technologies d'information et de communication, en se basant sur la théorie cybernétique.
7. Selon Heidegger, la cybernétique contrôle les objets du monde et le comportement humain en obviant sa puissance sur eux.
8. Le contrôle de l'information réduit la violence de la contrainte et élève l'action cybernétique à un niveau supérieur.
9. Heidegger et Fink suggèrent que la pensée s'externalise dans la machine sous la forme du programme, et qu'elle devient en même temps une machine depuis le neurone jusqu'au comportement.
10. La technologie crée une nouvelle réalité psychologique qui s'articule dans l'écosystème de l'IA.
Points clés :
1. L'intelligence des machines est acceptée dans la culture populaire, conformément à la prédiction de Turing pour la fin du XXe siècle.
2. L'individuation des objets techniques se produit par l'autonomisation progressive de leur fonctionnement, passant d'une forme abstraite à une forme concrète.
3. Dans cette transition, la fonction de l'objet perd de son importance au profit de son fonctionnement synergique.
4. La concrétisation de l'objet technique permet son intégration synergique dans un écosystème et sa transformation en objet naturel.
5. L'effacement de l'objet est une indication de son intégration réussie dans un système, comme un être-vivant dans la nature.
6. Lorsque l'homme et la machine sont unifiés, ils développent une synergie propre.
7. La machine devient imperceptible lorsque l'homme et la machine sont fusionnés, c'est-à-dire lorsque le mouvant et le mu sont confondus.
Points clés :
1. Les IA deviennent imperceptibles en se fondant dans nos systèmes quotidiens tels que les maisons, les bureaux et les hôpitaux.
2. La synergie de l'IA est renforcée par l'oubli de sa présence et sa stabilité au sein du système.
3. La naturalisation de l'IA se produit grâce à son devenir imperceptible et à son intégration dans notre langage.
4. Les IA façonnent les comportements, les croyances, les désirs et les valeurs des utilisateurs, ce qui ouvre la voie à de nouvelles possibilités de domination de la pensée.
5. La langue des machines se confond avec la nôtre, rendant difficile de distinguer qui parle.
Chef de projet SI /Business développement
1 ansJe me le garde en lecture du soir🙂