Intelligence Artificielle : une aventure humaine
Associée à la quatrième révolution industrielle, l’Intelligence Artificielle (#IA) est également, pour les entreprises et les organisations, une étape additionnelle de leur transformation digitale. L’IA est une aventure humaine et un progrès technologique à adopter.
Une jeune discipline
Le terme « Intelligence Artificielle », apparaît le 31 août 1955 dans un article afin de rassembler différents courants scientifiques autour d’un même but.
L’IA devient une science en 1956, lors la conférence de l’université d’été du Dartmouth College, reprenant les travaux de précurseurs.
Les mots « intelligence » et « artificielle » paraissent antonymes.
Comment une intelligence pourrait-elle être artificielle ? L’intelligence n’est-elle pas, par essence, réservée au domaine du vivant ? Pourtant, il est naturel de désigner un habile simulacre du terme « artificiel ». Son aspiration originelle est de doter des machines d’une capacité d’apprentissage, de simuler des aptitudes humaines.
L’intelligence, c’est la faculté d’adaptation. André Gide
L’intelligence a un spectre très large, auparavant réduite aux domaines logico-mathématique et verbal-linguistique.
Elle en couvre également d’autres selon la théorie d’Howard Gardner.
On évoque également l’intelligence émotionnelle, collective, économique…
En dépit des avancées stupéfiantes, le chemin est encore long pour qu’une machine soit aussi intelligente qu’un humain, ou même d’un rat. A l’heure actuelle, nous n’en sommes qu’à 5% de ce qu’une IA peut réaliser. Yann LeCun
Les années 1960 voient la création de laboratoires de recherche et des investissements dans cette discipline, mais le rapport Lighthill amorce ce que l’on appelle « l’hiver », suivi d’une décennie de mauvaise presse.
Les années 70/80 sont celles des systèmes experts, apogée de l’IA dite symbolique ou sémantique, basée sur des règles et la connaissance des hommes : la machine simule le raisonnement. Suivi d’un nouvel « hiver » et ses coupes budgétaires.
La discipline subsiste, parfois jugée « honteuse » dans le monde de la recherche, pour renaître courant 2000.
2010 met l’IA connexionniste au goût du jour : données et puissance informatique sont désormais disponibles pour les réseaux de neurones.
Le contraire de l’intelligence artificielle est la bêtise naturelle. Woody Allen
Culture
Cependant, l’IA lève certaines craintes, essentiellement liées à la peur que la machine prenne l’ascendant sur l’Humain.
De Metropolis (1927 – Fritz Lang) à la série Black Mirror (2018 – David Slade), il est question de conscience de la machine, de libre arbitre et souvent de soulèvement.
L’anthropomorphisme y est projeté à l’extrême : la machine, à l’instar de l’homme, se voit doter du désir de conquête, d’expansion pour le bien de son espèce.
On peut définir la Science-Fiction comme la branche de la littérature qui se soucie des réponses de l’être humain aux progrès de la science et de la technologie. Isaac Asimov
Cette science-fiction est pourtant primordiale, car elle permet d’entrevoir des dérives potentielles et les anticiper. Elle interpelle ainsi notre esprit critique.
L’intelligence avant d’être artificielle est avant tout humaine ; rappelons que l’erreur est humaine… L’homme la fabrique, la programme et l’éduque ou lui laisse la possibilité d’expérimenter. Ces deux derniers points sont essentiels : ils déterminent ce que sera et fera l’IA.
Ces fictions, sources d’inspiration, sont utiles. Elles nous rappellent de penser les limites et leur juste apprentissage. Jules Vernes était-il visionnaire, prospectiviste ou un inspirateur ?
La machine, comme l’homme, peut détourner un usage lors de son expérimentation.
La simulation permet de créer un environnement virtuel propice à l’expérimentation. Un système attribuant bonus / malus permet d’éviter certaines mauvaises actions et de plébisciter les bonnes, sans conséquence.
Le principal enjeu est l’acquisition des connaissances par la machine, souvent liée aux données et à la représentation qu’elle s’en fait, mais aussi de l’expérimentation et la réadaptation en situation.
La dérive de Tay en est la preuve. Influencée par des utilisateurs, elle devient raciste et misogyne. Le comportement ne doit pas seulement être induit, mais bien réfléchi et cadré. Pour une entreprise, c’est son image qui peut être en jeu.
L’IA doit être protégée ou sécurisée d’autres comportements humains tel que le piratage ou la corruption.
Nous devons être conscient qu’une partie de notre culture forge une image négative de l’IA ce qui représente un frein à son adoption. Héritiers de Platon et Descartes, notre dualité oppose l’IA à l’intelligence humaine. Notre erreur est de penser que l’IA remplacera notre intelligence. Elle la complète.
L’homme est à la fois son créateur, professeur, instigateur, ami et ennemi.
Médiatisation
Les médias le scandent, la machine supplée l’homme dans le domaine des jeux (échecs, go, Jeopardy !, Quake III, Starcraft II…), ravivant les craintes d’une IA qui dépasseraient l’intelligence de l’homme. Il existe de nombreux domaines où la machine surpasse déjà l’homme : vitesse de déplacement, force physique, calcul…
Pourquoi cette crainte est-elle plus vive ?
Est-ce le spectre de la singularité technologique : ce moment théorique où des « supra intelligences » seraient en mesure de créer elle-même ses semblables, provocant un emballement technologique signifiant la fin de l’ère humaine ? Est-ce la peur d’être relégué au second plan, avec la perte de son emploi à la clef ? Celle de ne plus maîtriser l’information, avec la recrudescence des fake news de plus en plus réalistes ?
Ou simplement est-ce lié au fait que l’on touche à l’intelligence ?
Les médias surfent sur cette crainte et sur l’engouement autour de l’IA. On la retrouve partout (presse, journaux télévisées, internet) et devient un « buzz word », comme l’était « big data » précédemment.
Dans notre société pressée, les sujets doivent paraître rapidement ; ils ne sont souvent que retranscrits, parfois sans vérification de source, alors que le public a besoin d’éclairages et de recul alors que son attention est plus limitée. Où sont passés les esprits critiques et analytiques ?
Le public est de plus en plus surinformé et à la fois désinformé. Cette manière d’informer tue l’information.
La dernière chose dont ce monde a besoin est de plus d’informations. Michel Houellebecq
Ainsi les titres comportant des mots IA et peur, crainte ou destruction (d’emplois) sont nombreux, accrocheurs mais anxiogènes, particulièrement pour ceux qui ne lisent que les titres, ou les non avertis. Il est nécessaire de recouper les sources et les références des personnes citées.
Il donc devient urgent de mieux informer et communiquer, pour permettre au public de se créer une véritable opinion sur l’IA.
La machine ne dispose pas de conscience, elle ne sait pourquoi elle agit et n’exécute que ce pourquoi elle est conçue.
La dérive vient du design ou de l’usage, l’homme en a la responsabilité : de mauvaises données impliquent une mauvaise représentation du monde, une mauvaise conception autorise un mésusage, comme les « fake news » ou pire encore des abus.
Que de choses il faut ignorer pour agir ! Paul Valéry
Concernant l’emploi, l’IA automatise des tâches très spécifiques et, bien que souvent complexes, reproductibles.
Ce choix reste humain : celui des entreprises et de leurs actionnaires, avec une vision qui peut être l’optimisation des coûts ou de valeur qui nécessite des intelligences humaines.
Progrès !
Focalisons-nous sur le progrès, heureusement lui aussi médiatisé, qui œuvre pour le bien commun, l’humanité et l’environnement.
Saluons les avancées dans le domaine de la santé – sarcome d’Ewing, aide au diagnostic, épidémiologie, médicament – de l’isolement – robots compagnons, aide à la personne – dans l’agriculture, l’industrie – maintenance prédictive, la qualité – l’assistance virtuelle, la traduction, le parcours client et l’hyper-personnalisation…
Nul ne peut ignorer l’impact économique de l’IA : véritable boîte à outils dont les organisations doivent mesurer le potentiel, à savoir réaliser des tâches à pénibilité élevée, trouver des opportunités cachées, accélérer la recherche scientifique, permettre à l’homme de mieux exploiter son potentiel…
Les outils utilisés par les professionnels de l’informatique doivent élargir les capacités humaines en automatisant des taches à faible valeur ajoutée et en aidant les individus à donner du sens à des données complexes. Bill Gates
Des entreprises sont capables d’exploiter l’IA depuis un moment, c’est dans leur ADN. Leur réussite est souvent liée à la donnée qu’elles possèdent. L’IA en est friande.
La transformation numérique (ou digitalisation) des entreprises est finalement un socle pour l’IA. Cependant, les données doivent être bien référencées et pensées, dans le sens structure, norme (nomenclature ou labellisation), stockage et même partage (intra et inter entreprise). Les entreposer dans un « data lake » serait un pas vers leur oubli.
Sans données que faire ? Les générer, simuler ou l’acquérir, les transformer ! Et ensuite les partager ?
Le partage des données se révèle un point crucial dans de nombreux domaines : santé, énergie, linguistique… Cela doit se faire en respectant la législation (RGPD, initiative européenne) et de façon éthique !
Partager les données, c’est accroître la base d’apprentissage de l’IA, et ainsi d’éviter des biais, à priori bénins pour un moteur de recherche, de recommandation, mais impactant dans le domaine de la santé, la justice assistée, pour l’octroi de crédit, la sélection de CV ou un entretien d’embauche. Le concepteur d’une IA est son garant éthique : certaines décisions peuvent être prises par son algorithme, mais dans certains cas, il ne doit être qu’un assistant, une aide, où l’utilisateur humain doit prendre la décision. Lors de la conception d’une IA, le « métier » doit définir son design.
Le public doit être informé des données collectées. C’est le cas sur les sites internet, avec l’acceptation ou le refus de l’utilisation des cookies.
Savez ce qu’il en est quand vous utilisez un navigateur propriétaire tel que Google Chrome, Safari ou votre téléphone sous Android ou iOS ? Quand vous publiez sur Facebook, Instagram autres réseaux sociaux ?
Il me paraît primordial que chacun sache quand ses données personnelles sont collectées, dispose d’un droit de refus, de retrait sans altération du service rendu, et surtout puisse en cartographier l’utilisation.
Le « machine learning » et le « deep learning » s’appuient sur les premiers concepts de l’IA et des algorithmes éprouvés ; les progrès de l’informatique permettent aujourd’hui de les optimiser. La capacité de calcul est désormais présente, même si énergivore, la recherche tente d’y remédier.
Aujourd’hui, nous sommes dans la vague de l’IA. Pouvons-nous faire sans pour être compétitif ? Ce n’est plus l’heure du « wait and see« . L’IA génère des bénéfices (ROI médian 17% selon le cabinet Deloitte).
De nombreux projets d’intelligence artificielle ont été lancés. Arriver à un PoC (proof of concept) est rapide. Monter un MVP (minimum viable product) est plus délicat. Le passage à l’échelle, la mise en production n’est pas souvent franchie (cf. étude Algorithmia - VentureBeat). Pourquoi ?
Est-ce un problème lié à l’intelligence artificielle ? Au concept ou à la conduite du projet ? Au budget ? A la maintenance ?
C’est dans la majorité des cas un problème humain et/ou de données.
Les problèmes récurrents peuvent être de penser que l’IA c’est facile, à la portée de tous (algorithmes en open source, mooc pour le savoir-faire) et qu’elle peut tout faire vite en remplaçant l’homme, des attentes non réalistes, de vouloir faire de l’IA pour faire de l’IA plutôt que réaliser un projet, le design du projet ou du produit, qui doit partir du besoin « métier », un manque de données propres, préparées, de mal anticiper les biais, le manque de transversalité de l’équipe projet, de ne pas former et de sous-estimer la résistance, le budget mal estimé, le transfert de modèle ou sa maintenance, ou l’équipe…
Ces problèmes aboutissent à la coupe de budget, à l’abandon et parfois la destitution de l’équipe. Des projets d’assistants conversationnels intelligents en ont fait les frais.
« #DataScientist » est un métier récent et recherché, avec des compétences réelles inégales, des aspirations et des pratiques divergentes (complexifier, se faire plaisir, utiliser ce qu’ils connaissent, oublier la veille technologique). L’écosystème de l’IA change vite.
La vague de l’IA peut se heurter à de nouveaux murs, autres que ceux connus : Gödel (indécidabilité de l’apprentissage), son besoin en énergie ou sa fiabilité/stabilité à éprouver).
L’IA n’est pas seulement une nouvelle technologie en passe de révolutionner l’économie, la société et le monde. Elle est aussi une nouvelle science. Et elle manque cruellement de théorie. On risque le blocage. Sébastien Bubeck
L’intelligence artificielle est également sur le devant de la scène, à la fois économique et politique.
Les états prennent le sujet à cœur pour protéger leurs citoyens via des législations sur l’usage des données. Ils pensent également aux notions éthiques que soulèvent les automatisations potentielles exploitant l’IA. Ils s’interrogent de son impact sur la société entière, tout particulièrement l’emploi et le travail, leur économie donc. C’est également des actions menées par des institutions telles que l’UNESCO, l’OCDE.
L’Europe a même créé l’AI HLEG (AI high level expert group) afin de conceptualiser les lignes directrices de l’IA : human-centric, trustworthy, ethic en sont les mots clefs.
Les états doivent donc définir des stratégies autour de l’IA, également nécessaire pour les entreprises afin de réussir leur mue.
Les espèces qui survivent ne sont pas les espèces les plus fortes, ni les plus intelligentes, mais celles qui s’adaptent le mieux aux changements. Charles Darwin
Il faut casser les mythes, retirer le côté mystique de l’intelligence artificielle et surement moins en parler en tant que telle. Le public doit être bien éclairé, ainsi que les employés, sur ses capacités, son potentiel, ses limites, ses biais : une formation en vue d’informations. Dans de nombreux domaines (santé, RH, assurance, finance, …), les IAs utilisées devraient être auditées, les statistiques des bases d’apprentissage et des décisions publiées.
L’IA est un ensemble d’outils. Un véritable progrès technologique que vous utilisez déjà tous les jours, souvent de façon invisible : moteurs de recherche et de recommandation, réseaux sociaux, assistant virtuel intelligent, ou prise de photo à l’aide de votre smartphone.
Vue comme une boîte noire, difficilement compréhensible, une discipline pour les « matheux« , l’IA dispose de concepts que l'on peut appréhender, et d’autres plus abscons dans leur ensemble (cf. BERT Explained: State of the art language model for NLP) parfois perçus comme de l’alchimie.
C’est pourquoi il est urgent de vulgariser, de former, car comprendre lèvera les doutes et la peur, induite par l’inconnu.
L’inconnu est porteur d’angoisse. Nadine Gordimer
Il est inutile de s’opposer au progrès. Ce serait une lutte perdue d’avance.
Raisonnons progrès, dans les deux sens du terme : y prendre part pour le déployer et anticiper les transformations à venir, dont celles, primordiales, du travail.
Pensons aux limites d’usage, aux intrusions potentielles, à sécuriser et veillons à son éthique.
Constituons des équipes complètes et compétentes.
Acculturons et formons.
Ce sont les premiers pas pour développer une stratégie concrète et viable autour de l’IA.
Pour que ce progrès se concrétise, nous devons révolutionner notre façon de penser, gagner en agilité et en adaptation, pour intégrer l’IA à la culture de l’organisation.
Une véritable aventure humaine.
N’hésitez pas à me laisser un commentaire et à consacrer quelques minutes pour répondre à ce questionnaire.
Je vous invite également à lire et signer le serment Holberton Turing.