Ce qu’il faut connaître de l’IA pour être efficace et… responsable.
Non, on ne peut pas utiliser une IA comme on utilise PowerPoint...

Ce qu’il faut connaître de l’IA pour être efficace et… responsable.

Après avoir testé Google Gemini et émis quelques doutes Julien, en charge de notre Lab consacré à l’IA, VUCA AI, se pose la question d’un usage efficace et responsable de l’IA.

J’utilise de nombreuses technologies sans savoir exactement comment elles fonctionnent: Word, Spotify, l’électricité…

Pour la plupart je n’ai pas besoin d’en savoir plus parce que cela ne présente pas de risque particulier (quoi que pour l’électricité…)

Mais ce n’est pas le cas pour l’IA !

Aujourd’hui les chatbots d’IA semblent magiques, or ils sont dangereux. Il est facile de surestimer leurs capacités.

Vous n’avez pas besoin de connaître tous les détails techniques du fonctionnement de l’IA – mais vous devez en savoir suffisamment pour comprendre ses limites.

Ce que vous trouverez ci-dessous 👇

  • Les LLM (Large Language Models, alias Modèles Massifs de Langage, démocratisés par ChatGPT) sont des prédicteurs de mots,
  • Les LLM sont statistiques, mais ils ne sont pas logiques,
  • Les LLM ne savent pas de quoi vous parlez,
  • Les LLM disposent d’une tonne d’informations, mais pas d’une source unique de vérité,
  • Les chatbots d’IA ajoutent une nouvelle couche d’intelligence aux LLM,
  • En quoi cela vous concerne et ce qu’il faut que vous en fassiez…

5 idées sur le fonctionnement de l’IA – et en quoi cela vous concerne

  • 1- Les LLM sont des prédicteurs de mots (mais c’est plus cool que ça en a l’air)

Les outils d’IA basés sur le chat (GPT-4, Claude, Poe…) sont construits sur la base de Modèles Massifs de Langage – des modèles d’apprentissage automatique qui prédisent et génèrent des textes plausibles en fonction de ce que vous leur donnez.

Lorsque vous posez une question au LLM, le réseau neuronal de l’IA prend votre entrée (“Que dois-je porter pour aller au travail demain ?”), la soumet à un algorithme et produit une proposition.

En termes simples, l’IA examine les informations disponibles sur l’internet et prédit le mot suivant en se basant sur ce qu’un grand nombre de penseurs critiques (vous, moi et d’autres humains) ont dit par le passé. Ainsi, lorsqu’il examine une phrase telle que :

“Quand il fait froid dehors, je mets __________________”

Il pourrait estimer les probabilités suivantes :

  • Un pull-over 10,9%
  • Des gants 8,5%
  • Un bonnet 6,2%
  • Une bûche sur le feu 2,5%
  • Un disque 0,2%.

Mais appeler l’IA “prédicteur de mots”, c’est oublier son intelligence. C’est la façon dont elle y parvient qui est intéressante. Un réseau neuronal est conçu pour imiter la façon dont nous pensons dont notre cerveau fonctionne, avec des neurones interconnectés. L’IA a ingéré un milliard de mots dans leur contexte et, en cours de route, elle a construit une analyse statistique de la façon dont ces mots sont connectés, sont liés.

Prenons un exemple : les mots roi et reine. Ces mots sont liés, mais ils sont liés dans de nombreuses dimensions différentes qui signifient beaucoup de choses différentes. Le roi et la reine sont :

  • des positions royales
  • des pièces d’échecs
  • des cartes à jouer
  • des personnes spéciales
  • l’acronyme de retour sur investissement en anglais

Le contexte des mots “roi” et “reine” dans une conversation en modifie totalement le sens. Les Modèles Massifs de Langage ont des centaines de millions de dimensions, et les LLM gardent la trace de ces dimensions à travers des centaines de milliers de conversations. Leur niveau de subtilité peut apparaître comme étant stupéfiante.

  • 2- Les LLM sont statistiques, mais ils ne sont pas logiques (contrairement à Alexa ou à Siri)

Alexa, Siri et la version d’IBM Watson qui a gagné au jeu Jeopardy sont tous basés sur des symboles. Tout ce qu’ils savent a été programmé en eux, ils sont donc très fiables.

Lorsque vous demandez “Quel temps fera-t-il à Paris demain ?”, ils analysent vos mots pour en faire une phrase avec des verbes et des noms afin d’essayer de comprendre ce que vous demandez. Ensuite, ils verront s’ils ont une routine préprogrammée pour traiter cette demande (accès à l’application météo > saisie de paramètres sur Paris > recherche pour demain).

Les LLM ne fonctionnent pas de cette manière – ils sont toujours en train de générer le mot suivant, le plus probable d’une série, sur la base d’une analyse incroyablement complexe d’une énorme quantité de texte. Leur capacité de raisonnement est limitée à ce qui est intégré dans notre langage, plutôt que d’être confiée à la pensée critique.

Ce qui nous amène à notre prochain point important…

  • 3- Les LLM ne savent pas de quoi vous parlez

On a l’impression que les LLM nous comprennent, mais ce n’est pas le cas. Ils sont, par essence, une version très avancée de l’autocomplétion.

Cela peut être intéressant (ou préoccupant) si vous utilisez un LLM dans le cadre d’une thérapie ou d’un conseil personnel. Lorsque vous décrivez une situation personnelle difficile et que le LLM vous dit “On dirait que vous traversez une période difficile”, il crée un texte prédictif basé sur ce que des centaines de milliers de thérapeutes empathiques ont dit dans le passé. Il ne comprend pas vraiment le concept de “période difficile” et n’en a pas non plus fait l’expérience.

La question profonde qui se pose ici est la suivante : Est-ce important ? L’IA doit-elle “ressentir” ce que nous ressentons pour faire preuve d’empathie ? Il existe de nombreux humains qui ressentent ce que nous ressentons et qui n’ont pas ou si peu d’empathie.

  • 4- Les LLM disposent d’une tonne d’informations, mais pas d’une source unique de vérité

Les LLM sont formés sur pratiquement tout ce que nous avons jamais écrit en ligne. Ils sont très créatifs parce qu’ils ont lu toutes les idées – littéralement, tous les articles de blog, les transcriptions de vidéos, les œuvres littéraires, les critiques littéraires, et j’en passe – et peuvent nous renvoyer les meilleures.

Mais ils n’ont pas de notion de vérité et ils ont tendance à nous faire plaisir. Il est facile de les forcer à nous donner une réponse incorrecte en leur demandant de nous dire ce que nous voulons entendre. Ils sont donc sujets à l’erreur et à l’incohérence. Leur qualité dépend des données sur lesquelles ils sont formés et, contrairement aux humains, ils ne disposent pas d’un mécanisme de “vérification instinctive” leur permettant de dire : “Attendez une minute – est-ce que cela a vraiment un sens ?”.

  • 5- Les chatbots d’IA (comme GPT-4, Poe, etc.) ajoutent une autre couche d’intelligence aux LLM

ChatGPT, Claude, Bing et Bard sont construits sur la base de LLM, mais ils sont aussi plus que de “simples” LLM. Ils se connectent à des services non LLM (comme Google Search) pour effectuer des tâches que les LLM ne maîtrisent pas, comme les mathématiques, la recherche de faits, l’analyse de données, l’entrée audio, la programmation et encore bien d’autres choses.

C’est ce que l’on appelle “l’IA multimodale” et nous allons commencer à en rencontrer de plus en plus.

Cela dit, même avec ces connexions, l’IA peut encore être beaucoup plus incohérente qu’une recherche Google lorsqu’il s’agit de la véracité, en particulier celles qui ont adopté une approche plus libérale des hallucinations ou qui ont incorporé moins de commentaires humains.

J’ai demandé à Claude la racine carrée de 4 568 331 :

Sa réponse: 2,138

Correct !

Je me dis que je peux faire confiance à Claude pour tous mes problèmes de mathématiques…

Je teste de nouveau, Claude me propose alors 2,135.

Hmm. Passons à autre chose…

En quoi cela vous concerne et ce que vous pouvez en faire…

  • Utilisez l’IA pour les tâches créatives, utilisez Google ou Siri pour les faits. Si vous voulez connaître le temps qu’il fait, demandez à Google. Si vous voulez 50 idées pour une campagne de marketing sur les bienfaits du jus d’orange pour la santé des reins, demandez à GPT.
  • Vérifiez les faits dans les résultats de votre chatbot. À l’heure actuelle, les chatbots d’IA sont comme un nouveau membre de l’équipe. Ils ont un potentiel énorme, mais vous devez vérifier leur travail. Si vous demandez à votre chatbot des recherches ou des données, n’acceptez pas aveuglément ses réponses – demandez-lui une source, puis vérifiez-la. (Vous découvrirez parfois qu’elles sont inventées).
  • Demandez à l’IA d’expliquer son raisonnement. Cette astuce permet de repérer plus facilement les faiblesses de la logique ou les sophismes.
  • Pour une qualité optimale, payez pour des outils d’IA avec davantage d’intégrations. Vous obtenez ce pour quoi vous payez et, à l’heure actuelle, les systèmes payants tels que GPT-4 offrent davantage d’intégrations avec des outils non-LLM.
  • Si vous voulez une véritable compréhension, il vous reste les humains. L’empathie humaine est inégalable. Le GPT ne vous remplacera probablement pas de sitôt dans un entretien en face à face.

Merci pour ce panorama complet 🤖 #IA

Augustin GUELDRY

Supply Chain & I.A / + 100 clients accompagnés depuis 2010

1 ans

Jean Paul Crenn Merci pour ce décryptage.

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets