Ce qu’il faut connaître de l’IA pour être efficace et… responsable.
Après avoir testé Google Gemini et émis quelques doutes Julien, en charge de notre Lab consacré à l’IA, VUCA AI, se pose la question d’un usage efficace et responsable de l’IA.
J’utilise de nombreuses technologies sans savoir exactement comment elles fonctionnent: Word, Spotify, l’électricité…
Pour la plupart je n’ai pas besoin d’en savoir plus parce que cela ne présente pas de risque particulier (quoi que pour l’électricité…)
Mais ce n’est pas le cas pour l’IA !
Aujourd’hui les chatbots d’IA semblent magiques, or ils sont dangereux. Il est facile de surestimer leurs capacités.
Vous n’avez pas besoin de connaître tous les détails techniques du fonctionnement de l’IA – mais vous devez en savoir suffisamment pour comprendre ses limites.
Ce que vous trouverez ci-dessous 👇
5 idées sur le fonctionnement de l’IA – et en quoi cela vous concerne
Les outils d’IA basés sur le chat (GPT-4, Claude, Poe…) sont construits sur la base de Modèles Massifs de Langage – des modèles d’apprentissage automatique qui prédisent et génèrent des textes plausibles en fonction de ce que vous leur donnez.
Lorsque vous posez une question au LLM, le réseau neuronal de l’IA prend votre entrée (“Que dois-je porter pour aller au travail demain ?”), la soumet à un algorithme et produit une proposition.
En termes simples, l’IA examine les informations disponibles sur l’internet et prédit le mot suivant en se basant sur ce qu’un grand nombre de penseurs critiques (vous, moi et d’autres humains) ont dit par le passé. Ainsi, lorsqu’il examine une phrase telle que :
“Quand il fait froid dehors, je mets __________________”
Il pourrait estimer les probabilités suivantes :
Mais appeler l’IA “prédicteur de mots”, c’est oublier son intelligence. C’est la façon dont elle y parvient qui est intéressante. Un réseau neuronal est conçu pour imiter la façon dont nous pensons dont notre cerveau fonctionne, avec des neurones interconnectés. L’IA a ingéré un milliard de mots dans leur contexte et, en cours de route, elle a construit une analyse statistique de la façon dont ces mots sont connectés, sont liés.
Prenons un exemple : les mots roi et reine. Ces mots sont liés, mais ils sont liés dans de nombreuses dimensions différentes qui signifient beaucoup de choses différentes. Le roi et la reine sont :
Le contexte des mots “roi” et “reine” dans une conversation en modifie totalement le sens. Les Modèles Massifs de Langage ont des centaines de millions de dimensions, et les LLM gardent la trace de ces dimensions à travers des centaines de milliers de conversations. Leur niveau de subtilité peut apparaître comme étant stupéfiante.
Alexa, Siri et la version d’IBM Watson qui a gagné au jeu Jeopardy sont tous basés sur des symboles. Tout ce qu’ils savent a été programmé en eux, ils sont donc très fiables.
Recommandé par LinkedIn
Lorsque vous demandez “Quel temps fera-t-il à Paris demain ?”, ils analysent vos mots pour en faire une phrase avec des verbes et des noms afin d’essayer de comprendre ce que vous demandez. Ensuite, ils verront s’ils ont une routine préprogrammée pour traiter cette demande (accès à l’application météo > saisie de paramètres sur Paris > recherche pour demain).
Les LLM ne fonctionnent pas de cette manière – ils sont toujours en train de générer le mot suivant, le plus probable d’une série, sur la base d’une analyse incroyablement complexe d’une énorme quantité de texte. Leur capacité de raisonnement est limitée à ce qui est intégré dans notre langage, plutôt que d’être confiée à la pensée critique.
Ce qui nous amène à notre prochain point important…
On a l’impression que les LLM nous comprennent, mais ce n’est pas le cas. Ils sont, par essence, une version très avancée de l’autocomplétion.
Cela peut être intéressant (ou préoccupant) si vous utilisez un LLM dans le cadre d’une thérapie ou d’un conseil personnel. Lorsque vous décrivez une situation personnelle difficile et que le LLM vous dit “On dirait que vous traversez une période difficile”, il crée un texte prédictif basé sur ce que des centaines de milliers de thérapeutes empathiques ont dit dans le passé. Il ne comprend pas vraiment le concept de “période difficile” et n’en a pas non plus fait l’expérience.
La question profonde qui se pose ici est la suivante : Est-ce important ? L’IA doit-elle “ressentir” ce que nous ressentons pour faire preuve d’empathie ? Il existe de nombreux humains qui ressentent ce que nous ressentons et qui n’ont pas ou si peu d’empathie.
Les LLM sont formés sur pratiquement tout ce que nous avons jamais écrit en ligne. Ils sont très créatifs parce qu’ils ont lu toutes les idées – littéralement, tous les articles de blog, les transcriptions de vidéos, les œuvres littéraires, les critiques littéraires, et j’en passe – et peuvent nous renvoyer les meilleures.
Mais ils n’ont pas de notion de vérité et ils ont tendance à nous faire plaisir. Il est facile de les forcer à nous donner une réponse incorrecte en leur demandant de nous dire ce que nous voulons entendre. Ils sont donc sujets à l’erreur et à l’incohérence. Leur qualité dépend des données sur lesquelles ils sont formés et, contrairement aux humains, ils ne disposent pas d’un mécanisme de “vérification instinctive” leur permettant de dire : “Attendez une minute – est-ce que cela a vraiment un sens ?”.
ChatGPT, Claude, Bing et Bard sont construits sur la base de LLM, mais ils sont aussi plus que de “simples” LLM. Ils se connectent à des services non LLM (comme Google Search) pour effectuer des tâches que les LLM ne maîtrisent pas, comme les mathématiques, la recherche de faits, l’analyse de données, l’entrée audio, la programmation et encore bien d’autres choses.
C’est ce que l’on appelle “l’IA multimodale” et nous allons commencer à en rencontrer de plus en plus.
Cela dit, même avec ces connexions, l’IA peut encore être beaucoup plus incohérente qu’une recherche Google lorsqu’il s’agit de la véracité, en particulier celles qui ont adopté une approche plus libérale des hallucinations ou qui ont incorporé moins de commentaires humains.
J’ai demandé à Claude la racine carrée de 4 568 331 :
Sa réponse: 2,138
Correct !
Je me dis que je peux faire confiance à Claude pour tous mes problèmes de mathématiques…
Je teste de nouveau, Claude me propose alors 2,135.
Hmm. Passons à autre chose…
En quoi cela vous concerne et ce que vous pouvez en faire…
Merci pour ce panorama complet 🤖 #IA
Supply Chain & I.A / + 100 clients accompagnés depuis 2010
1 ansJean Paul Crenn Merci pour ce décryptage.