IA/GenAI : les entreprises à l’heure du choix "Make, Buy, Partner"

IA/GenAI : les entreprises à l’heure du choix "Make, Buy, Partner"


Les applications dites d’IA sont une articulation de différentes couches de solutions :

1.      D’un modèle qui a été construit à partir d’algorithmes, grâce à une capacité matérielle d’entrainement et de calculs en croissance exponentielle, permettant de traiter les milliards de paramètres nécessaires pour traiter un maximum de cas,

2.      De (ses) données en entrée qu’il faut préparer sous la forme attendue (les vecteurs utilisés dans les paramètres du modèle), et qui peuvent servir à poursuivre la personnalisation de la solution à son contexte,

3.      D’une interface, rendant le fonctionnement intelligible par l’utilisateur final, facilitant son adoption et l’explicabilité à un sponsor.

 

Comment avancer sur ces solutions pour les entreprises ?

Le « niveau 1 » du modèle est à la fois celui qui a le plus de valeur ajoutée mais celui qu’il est très difficile de construire soit même, au vu du ticket d’entrée : entre le matériel (plusieurs millions d’€ de cartes graphiques à interconnecter), l’équipe experte de Data Scientists, les semaines d’entrainement, les données d’entraînement suffisantes à collecter etc., il sera difficile de construire un modèle aussi performant que celui d’un grand acteur – en tous cas sur un modèle généraliste.

95% des entreprises ou des acteurs partiront sur du « Buy » packagé, les grands modèles étant accessibles en open source : en quelques heures et avec quelques euros, il est possible de s’y connecter en API !

L’intérêt du « Make » des 5% restant n’est pas totalement à exclure, pour ceux qui ont besoin de traiter un sujet d’expertise spécifique qui sera mieux modélisé que par une approche généraliste. De la prévision météorologique, à l’aide à la décision en investissement, la recherché médicale, la lutte contre la fraude, la recommandation de podcasts, la prévision de risques, ou encore le traitement de flux techniques…

Avoir créé son propre modèle peut rester un avantage concurrentiel - avec le risque d’être dépassé le lendemain par une nouvelle création venue de Californie ; ou du 19ème arrondissement 😉 #MistralAI. C’est surtout permettre une plus grande maîtrise des fonctionnements de la solution et du respect des données d’entrainement manipulées. Peut-on prendre le risque vis-à-vis de ses collaborateurs, de ses clients, de la régulation en cours de structuration… d’utiliser un modèle mondialement leader, sans en connaître les règles et les données utilisées ?

 

Dans cette course aux cas d’usages, il est donc important d’avoir une vision stratégique « Make or Buy or Partner » comme sur tout autre type de solution, en fonction de son modèle d’activité et des priorités d’investissements. Ceci influera aussi sur la stratégie de recrutement : est-il plus important de trouver des profils pointus en algorithmie (Data Scientists) … ou plutôt en traitement et préparation de données (Data Engineers) ?

L’effort portera en effet le plus souvent sur le « niveau 2 » de préparation des données (la création des bientôt fameux Tokenizers ou Embeddings) qui sera pourtant la face la plus immergée de l’iceberg et ne trouvera son impact et sa visibilité que par le « niveau 3 » de l’interface.

Rien de plus difficile à lire et comprendre en effet qu’un algorithme (non documenté) si ce n’est par son utilisation.

Le sujet de l’IA reste donc plus que jamais en entreprise un sujet de vision stratégique de positionnement et de sourcing, mais aussi d’agilité et de réactivité dans son approche, car toute situation atteinte peut très vite être remise en cause par ce que proposera demain le marché.

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets