💥 Arrêtez tout ! OpenAI vient de sortir son nouveau modèle o1 et croyez-moi, c'est une petite révolution. 💥
Ce matin, je balance une requête SQL dans l'interface de ce nouveau modèle. Pas une requête simple, non. Un truc costaud, un de ces casses-têtes qu’on aime détester. Et là, l’IA se met à réfléchir.
Elle optimise, corrige, et ajuste. Pendant ce temps, moi, je me pose, café à la main.
Ce n’est plus moi qui planche sur les détails techniques, c’est elle. OpenAI a fait fort avec ce modèle : il va au-delà de la simple génération de texte ou de code. Il réfléchit, prend le temps de vérifier et re-vérifier ses décisions.
Avec ce genre d’outil, on passe à un autre niveau. L'IA ne se contente pas d'exécuter, elle nous accompagne dans le raisonnement. J'utilise l'IA tous les jours, pour tout. C'est comme un second cerveau qui gère les tâches complexes et répétitives pendant que je me concentre sur les parties créatives et stratégiques de mon boulot. Elle est devenue indispensable à mon quotidien de développeur.
Cette version o1, c’est clairement un game-changer. Plus précise, et surtout, plus intelligente dans ses raisonnements. Elle remet en question ses propres résultats, s’ajuste en temps réel, et permet de libérer du temps pour se focaliser sur les choses qui comptent vraiment.
Le futur du développement, c’est ça : nous, les humains, à la vision d’ensemble, et l’IA dans les détails techniques.
Est-ce qu’on va travailler moins ?
Je ne sais pas. Mais avec l'aide de l'IA, je sais qu’on va travailler mieux.
CTO @CVDesignR : cvdesignr.com 🇫🇷 x @TalentPicker
2 sem.Quand il faut extraire du sens d'un texte, en classifier de l'information discrète, on utilise du NLP..., des modèles sans transformers en français ? ou multilingue (fasttext etc).., et/ou des méthodes de NER (français ou multilingue ?), et/ou des transformers (BERT?), et s'il faut aller vers des LLM.. alors un appel API avec un beau prompt vers une AI-gen multilangue qui utilise un LLM avec une demande avec sortie en JSON, et alors... pour qqs millionièmes de $ on a notre classification, qui fonctionne 9 fois sur 10 (ou plutôt 99 fois sur 100...) mais.. jusqu'à quand? Ces problèmes que vous tentez d'identifier ont à peine le temps de naître que 3 mois après on voit apparaître un modèle qui résout le problème précédent. On regarde la caravane passer en aboyant. Je suis un profane en datascience,.. mais je setup les environnements, je connais un peu les sujets, mais les choses changent tellement vite que ceux qui connaissaient l'état de l'art et les maths qu'il y a derrière sont encore choqués chaque mois qui passe. Pourquoi critiquer ces méthodes qui sortent chaque mois ? Elles ne sont pas toujours que du "buzz"... Par exemple GPT existaient bien avant ChatGPT, mais le tuning qu'il y a eu derrière mérite de s'y attarder...?