L'​Intelligence Artificielle : Histoire d'une révolution informatique

L'Intelligence Artificielle : Histoire d'une révolution informatique

La notion d’intelligence artificielle est difficile à cerner. Dans un premier temps qu’est-ce que l’intelligence ? Comment la définir ? Est-ce la capacité à résoudre un problème, à s’adapter à un environnement ou encore à percevoir le monde ? Est-ce plutôt la capacité d’apprendre ou bien d’appliquer un savoir ? L’intelligence en philosophie, en psychologie, l’intelligence animale ou bien artificielle, il existe bien des formes.

Le dictionnaire Larousse définit l’intelligence artificielle (IA) comme l’« ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine »


Mais d’où vient cette notion ?

 « Je propose de réfléchir à la question : les machines peuvent-elles penser ? »

C’est la réflexion qu’a menée Alan Turing dans les années 50 et en particulier dans son article le plus célèbre : « Computing Machinery and Intelligence » (Machines de calcul et intelligence) dans lequel le mathématicien britannique explore le problème de définir si une machine est consciente ou non. C’est de là que découlera ce que l’on appelle le Test de Turing, qui permet de vérifier la capacité d’une machine à faire preuve d’intelligence humaine en tenant une conversation (avec un humain).

Le principe du test est simple. Un évaluateur humain est chargé de juger une conversation textuelle entre un humain et une machine. L’évaluateur sait que l’un des deux participants est une machine, mais ne sait pas lequel. S’il n’est pas en mesure de discerner l’homme de la machine après 5 minutes de conversation, la machine a passé le test avec succès. Le test ne mesure pas la capacité d’une machine à répondre correctement à une question, mais à quel point ses réponses ressemblent à celles que fournirait un humain.

Les premières traces de l’IA remonteraient donc aux années 50 avec Turing mais une autre origine est probable. En effet, Warren Weaver en 1949 (un scientifique, mathématicien et administrateur de recherche américain) dans une publication sur la traduction automatique des langues, émet l’idée qu’une machine pourrait très bien effectuer une tâche qui relève de l’intelligence humaine.

Des origines quelque peu floues, mais une officialisation certaine datant de 1956 : l’IA devient un véritable domaine scientifique lors d’une conférence au Dartmouth College aux États-Unis.

La finalité de ce rassemblement est que « chaque aspect de l'apprentissage ou toute autre caractéristique de l'intelligence peut être si précisément décrit qu'une machine peut être conçue pour le simuler ». C’est alors que naît officiellement l’Intelligence Artificielle. Elle atteint rapidement les universités les plus prestigieuses tels que : Stanford, le MIT ou Édimbourg.


L’âge d’or de l’IA

Milieu des années 60, sur le sol américain, l’IA est surtout financée par le Département de la Défense. Au même moment, à travers le monde, des laboratoires ouvrent. Les experts de l’époque vont même jusqu’à dire que « des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut faire ». Un projet quelque peu ambitieux bien que visionnaire car encore aujourd’hui l’IA n’a pas pris une telle place dans nos vies, mais on s’en approche peu à peu.


L’hibernation

Les années 70 sont quelques peu moroses pour le domaine de l’IA et l’année 1974 est même appelée l’« IA Winter ». Le grand optimisme des experts a engendré une attente excessive et les résultats ne se réalisant pas les investissements décroissent. En effet, les experts peinent à faire aboutir leurs projets et les académies voient donc leurs financements réduits par les gouvernements en particulier britannique et américain. Ceux-ci préférant soutenir des idées pouvant déboucher sur des projets plus concrets et fructueux.


La révolution

Après une période un peu creuse, les années 80 sont beaucoup plus prospères pour l’IA. Les projets de recherche sont relancés grâce au succès des systèmes experts.

Un système expert est un outil informatique d’intelligence artificielle, conçu pour simuler le savoir-faire d’un spécialiste, dans un domaine précis grâce à l’exploitation d’un certain nombre de connaissances fournies explicitement par des experts du domaine. L’outil va être capable de reproduire les mécanismes cognitifs d’un expert pour utiliser ses connaissances dans un domaine particulier.

Grâce au succès de ces ordinateurs capable de se comporter comme un expert humain, le marché de l’IA atteint une valeur d’un milliard de dollars. Le cercle vertueux est enclenché, les différents gouvernements sont motivés à soutenir financièrement (de nouveau) plus de projets académiques.


Le basculement

Le champ de l'intelligence artificielle entre 1990 et 2000, avec près d'un demi-siècle derrière lui, a finalement réussi à atteindre certains de ses plus anciens objectifs. Le développement exponentiel des performances informatiques permet d’exploiter des terrains de l’IA jusqu’alors peu communs. C’est l’expansion du data mining (extraction de connaissances à partir de données) ou encore des diagnostics médicaux. Le vrai basculement en l’occurrence médiatique a lieu en 1997, quand Deep Blue (un superordinateur créé par IBM) bat le champion du monde d’échecs de l’époque : Garry Kasparov.



Un enjeu de société

L’IA désormais connue du grand public fait son apparition au début des années 2000 dans de nombreux films de science-fiction mettant en scène des scénarios plus ou moins réalistes. L’exemple le plus marquant est peut-être Matrix en 1999, la trilogie américaine à succès qui raconte l’histoire de l'un des pirates les plus recherchés du cyber-espace. Toute une série de films futuristes à une époque où l’on ne connaît pas encore vraiment bien les applications de l’IA pour imaginer des scénarios réels : A.I (Steven Spielberg), Robot, Terminator.

Entre 2000 et 2010 notre société connaît un réel boom informatique et technologique. Les ordinateurs personnels apparaissent dans les foyers, internet se déploie à grande vitesse, les smartphones voient le jour… De l’Homo Sapiens à l’Homo Numericus notre société connaît un vrai basculement technologique.

Ce tournant bien que titanesque questionne quant à l’éthique de l’intégration dans de nombreux secteurs. Les premières chartes font leur apparition, comme en Corée du Sud en 2007 avec la charte de l’éthique des robots qui pose des limites et des normes aux constructeurs ainsi qu’aux utilisateurs de ceux-ci. Ce sont les prémices d’une réflexion quant aux conséquences des IA, qui devient de plus en plus présente dans nos quotidiens.



Une IA sans limites

Après Deep Blue, c’est Watson toujours créé par IBM qui s’illustre une nouvelle fois grâce à une prouesse technologique. Ce super-cerveau attire une nouvelle fois l’attention des médias en battant les deux plus grands champions du jeu télévisé Jeopardy ! et marque un nouveau tournant dans la médiatisation des recherches. Watson est à ce moment-là capable de comprendre l’énoncé des questions, buzzer pour prendre la main, trouver les réponses en quelques secondes, et, grâce à un système de synthèse vocale, énoncer les réponses et choisir le thème et le montant de la prochaine question, conformément aux règles du jeu : une vraie prouesse.

Lorsqu’il s’agit d’exécuter une tâche, un système n’a besoin que de règles. En revanche lorsqu’il s’agit d’avoir une vraie réflexion ou de donner la réponse la plus juste possible, le système doit apprendre. Les chercheur.se.s développent alors de nouveaux procédés qui sont le machine learning puis le deep learning (concepts que nous développerons un peu plus loin). Les données deviennent alors la nouvelle source d’information d’un système et poussent de nombreux projets à suivre cette voie. Les nombreux développements de technologies pour l’IA permettent de diversifier les projets et au-delà du calcul pur et dur, d’intégrer le traitement d’images.

Certaines sociétés prennent alors les devants. La problématique n’étant plus d’avoir des cerveaux pour élaborer les meilleurs systèmes mais d’avoir de la donnée, pour ces systèmes, à traiter. Google devient le géant que l’on connaît aujourd’hui, Facebook ouvre le Facebook Artificial Intelligence Research (FAIR). Un tournant qui éloigne le géant de sa mission sociale pour se tourner vers les sciences. Amazon, Microsoft, Apple, Netflix, Tesla ne sont pas en reste non plus, de même pour de nombreuses sociétés chinoises.

Cette gestion des données permet dans un premier temps de mettre l’IA en application pour faire de la traduction, lire des radios, jouer à des jeux vidéo … L’IA performe de plus en plus, mieux que l’Homme, et pose donc la question du rôle qu’il aura dans les années à venir. L’IA n’est plus qu’un sujet réservé aux chercheurs les plus doués mais c’est un vrai débat public. Nous n’en sommes encore qu’aux prémices de son intégration et les décennies à venir nous réservent encore bien des surprises.


« L’émergence de l’IA n’est qu’un symptôme de l’accélération du progrès technologique. »
Yann LeCun, directeur de la recherche en intelligence artificielle chez Facebook

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets