[#Quintalk 11 - #RéductionDeDimension ] La réduction de dimension, à quoi ca sert ? [📖Définition] En Machine Learning, l'entraînement des modèles vise à interpréter un phénomène à partir de différentes variables explicatives. Lorsque le nombre de variables disponibles est important et que nous manquons de connaissances préalables sur le sujet, il peut être tentant d'inclure toutes ces variables dans le modèle. Cependant, est-ce vraiment la meilleure approche ? Quels impacts sur la performance des modèles ? Quels problèmes cela pourrait-il causer et, quels sont les différents moyens disponibles pour gérer la complexité liée à la grande dimension ? 👉 Découvrez le dans notre carrousel et consultez la fiche détaillée ici : https://lnkd.in/gyUmq6K3 Quelle approche méthodologique préférez-vous pour résoudre les problèmes liés à la dimensionnalité ? Merci à Oscar Mallet pour ce Quintalk et pour cette fiche ! #Régularisation #MachineLearning #DataScience #PCA #FeatureSelection Julien ESTIVIE Gaëtan Pinon Kahina Lounaci Coriande CLEMENTE
Post de Quinten Academy
Plus de posts pertinents
-
Techniques de Réduction de Dimensionnalité Dans le monde actuel des données massives et du machine learning, il est courant de travailler avec des jeux de données contenant des centaines, voire des milliers de variables. Bien que riches en informations, ces données en haute dimension peuvent poser des défis importants pour l'analyse et la visualisation. C'est là que les techniques de réduction de dimensions entrent en jeu. Elles permettent de simplifier les données tout en conservant autant d'informations que possible, facilitant ainsi l'analyse et améliorant les performances des modèles. En image je vous présente quatre des techniques de réduction de dimensions couramment rencontrées : l'Analyse en Composantes Principales (PCA), l'Analyse Discriminante Linéaire (LDA), t-Distributed Stochastic Neighbor Embedding (t-SNE), et l'Uniform Manifold Approximation and Projection (UMAP). Chaque technique est accompagnée d'une mini description, ainsi que ses avantages et inconvénients. As-tu des techniques autres que celles-ci à nous présenter ? Partage-les avec nous en commentaire.
Identifiez-vous pour afficher ou ajouter un commentaire
-
En dynamique des systèmes, la plupart des personnes sont obnubilées par la conception du causal loop diagram (CLD), c'est ce que j'appelle l'ivresse de la création... créer un diagramme dégage pas mal d'adrénaline car l'objectif est de tout mettre en interactions et pour beaucoup, c'est l'objectif à atteindre... Or l'expérience montre qu'il ne faut pas râter des étapes, qu'il est nécessaire de suivre pas à pas la conception mentale du modèle (mental models), de prendre un certain temps pour dégrossir la première étape (définir le système, poser les problèmes, les hypothèses, les interactions entre variables...), de digérer la complexité du modèle (en utilisant des techniques de modélisation visant à créer des sous modèles ou des modules, autonomes), de mobiliser différents experts ou groupes de citoyens (pour concevoir les diagrammes de boucles causales et valider avec eux, certaines hypothèses du modèle) et de savoir combiner plusieurs méthodes (les techniques économétriques sont un atout dans l'analyse de séries temporelles). Chaque année, je teste et reformule ces étapes pour que les étudiants aient une méthode, des objectifs à atteindre, des points de discussion..., pour que ceux qui souhaitent investir un peu de temps, ne soient pas déborder par la complexité des problèmes à résoudre. Chaque étape est associé à des outils, matrices d'impacts croisés, clickchart, carte de controverses, tableau des boucles... Il ne s'agit pas de vendre du vent, ni de faire de la dynamique des systèmes, la méthode scientifique à appliquer en toute circonstance (nous avons vu ce que cela donnait avec l'économétrie), mais bien de donner une place légitime à cette méthode. Bref, de rappeler les bases et les valeurs de la science, rester ouvert en toute circonstance et faire avancer nos connaissances :)
Identifiez-vous pour afficher ou ajouter un commentaire
-
Cher Lecteur, Cher(e) collègue, Nous vous prions dans le cadre de réalisation de notre projet de recherche, de nous aider à la conception d'un outil d'aide à la décision pour l'orientation au bac. Cet outil encore en phase de recherche se base sur l'intelligence artificielle. De ce fait nous vous prions de nous faire parvenir le retour de votre expérience en répondant à ce questionnaire. Conception et réalisation d'un outil d'aide à la décision au Bac: https://lnkd.in/etPtTt8T
Identifiez-vous pour afficher ou ajouter un commentaire
-
Conception et mise en œuvre d’un projet analytique visant à optimiser la sélection des joueurs et les stratégies dans le football à l’aide de méthodes avancées de machine learning et d’analyse de données. Le projet intègre l’utilisation de réseaux de neurones pour évaluer les compétences des joueurs, l’algorithme k-NN pour prédire leurs positions, la régression logistique multinomiale pour calculer les probabilités de victoire et la régression LASSO pour sélectionner les variables clés. Une réduction de la dimensionnalité a été effectuée via l’analyse en composantes principales (PCA), et l’algorithme GRASP a permis d’identifier les formations optimales. Ce travail illustre la synergie entre mathématiques, informatique et stratégie sportive
Identifiez-vous pour afficher ou ajouter un commentaire
-
J’ai eu la chance, au cours de ma formation académique, de me plonger dans deux disciplines passionnantes : le Machine Learning et l’Économétrie. Ces deux approches, bien que différentes dans leur finalité, ont souvent des points communs. Prenons un exemple classique : la régression linéaire (simple ou multiple). Dans les deux modules, nous avons étudié ce modèle, mais avec des méthodologies et des objectifs très distincts. En économétrie, l’objectif principal est de comprendre les relations de causalité entre les variables. Pourquoi un facteur influence-t-il un autre ? Quelle est la signification de ce coefficient estimé ? L’interprétation et les hypothèses statistiques (comme la normalité des résidus ou l’absence de multicolinéarité) sont au cœur de l’analyse. En machine learning, on s’intéresse avant tout à la prédiction. Peu importe si les coefficients n’ont pas une interprétation directe, tant que le modèle est performant sur de nouvelles données. Ici, les métriques comme la MSE (Mean Squared Error) ou la capacité de généralisation sont les stars du spectacle. Ces deux visions m’ont permis de voir à quel point un même outil peut servir des objectifs très différents. En économétrie, on veut souvent répondre à "pourquoi". En machine learning, c’est plutôt "à quel point".
Identifiez-vous pour afficher ou ajouter un commentaire
-
🌍 Le Congrès annuel 2024 de l’ICA aura lieu dans quelques jours, et nous avons hâte d’assister aux séances éclairantes avec vous! La séance offerte par David Hatherell et Louis Rossouw, intitulée L’apprentissage machine et profond, et l’analytique dans le contexte des études de mortalité, examinera comment les techniques avancées transforment la modélisation de la mortalité. Vous voulez avoir une longueur d’avance ou n’êtes pas en mesure d’assister à la séance? Obtenez un avant-goût du sujet grâce à leur article portant sur l’une de ces technologies de pointe – la régression LASSO. Cette introduction explique comment cette technique puissante simplifie la sélection des variables, améliore la possibilité d’interprétation et améliore la précision du modèle. 📊 #scienceactuarielle #apprentissagemachine #régressionLASSO #sciencedesdonnées #modélisationprédictive #analytique #mortalité
Simplicité, interprétabilité et sélection efficace des variables grâce à la régression LASSO - Voir au-delà du risque
voiraudeladurisque.ca
Identifiez-vous pour afficher ou ajouter un commentaire
-
Les choses se précisent. Notre jeune algorithme arrive à organiser des pièces. Il procède comme la réalité quantique : il mélange des probabilités. Prochaine étape : definirles critères à retenir pour avoir un bon plan.
Identifiez-vous pour afficher ou ajouter un commentaire
-
𝐎𝐩𝐭𝐢𝐦𝐢𝐬𝐚𝐭𝐢𝐨𝐧 𝐝𝐞𝐬 𝐇𝐲𝐩𝐞𝐫𝐩𝐚𝐫𝐚𝐦è𝐭𝐫𝐞𝐬 L'optimisation des hyperparamètres est cruciale pour améliorer nos modèles. Les hyperparamètres, comme le nombre d'arbres dans Random Forest ou le taux d'apprentissage, ne peuvent pas être appris directement. Aujourd'hui, focus sur trois méthodes d'optimisation : GridSearch, RandomSearch et l'Optimisation Bayésienne. - 𝐆𝐫𝐢𝐝 𝐒𝐞𝐚𝐫𝐜𝐡 : Méthode exhaustive, elle teste toutes les combinaisons possibles de la grille définie. Avantages : Simple, exhaustive. Inconvénients : Très coûteuse en ressources. - 𝐑𝐚𝐧𝐝𝐨𝐦 𝐒𝐞𝐚𝐫𝐜𝐡 : Sélectionne des combinaisons aléatoires, explorant plus rapidement l'espace des hyperparamètres. Avantages : Plus rapide, efficace pour réduire les ressources. Inconvénients : Peut passer à côté d’une configuration optimale. - 𝐎𝐩𝐭𝐢𝐦𝐢𝐬𝐚𝐭𝐢𝐨𝐧 𝐁𝐚𝐲é𝐬𝐢𝐞𝐧𝐧𝐞 : Approche avancée qui utilise un modèle probabiliste pour sélectionner les hyperparamètres. Avantages : Rapide pour les modèles coûteux. Inconvénients : Plus complexe à configurer. Optimiser les hyperparamètres améliore significativement les performances ! Le choix de la méthode dépend souvent de la complexité du modèle et du temps disponible. #MachineLearning #HyperparameterTuning #GridSearch #RandomSearch #BayesianOptimization #DataScience #DataAnalyst #Data ---------- 𝐵𝐸𝑁𝑀𝐴𝐻𝐴𝑀𝑀𝐸𝐷 𝑂𝑢𝑠𝑠𝑎𝑚𝑎 𝑆𝑝é𝑐𝑖𝑎𝑙𝑖𝑠𝑡𝑒 𝑒𝑛 𝑎𝑛𝑎𝑙𝑦𝑠𝑒 𝑑𝑒 𝑑𝑜𝑛𝑛é𝑒𝑠 & 𝑚𝑜𝑑é𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛 𝑝𝑟é𝑑𝑖𝑐𝑡𝑖𝑣𝑒
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Prêt à changer votre manière de corriger vos copies ? Les inscriptions pour notre prochain Webinaire sont toujours ouvertes ! Le 12 septembre à 11h, découvrez la solution Good Grades, notre outil révolutionnaire d'assistance à la correction de copies d’examen par IA. Pourquoi y assister ? ✨ Gagnez 80% de temps sur vos corrections : Découvrez comment Good Grades peut transformer votre quotidien de formateur ou d'enseignant. 🖥️ Démonstration en direct : Stefan Crisan, CEO de Good Grades, vous guidera à travers la plateforme et ses multiples fonctionnalités. 🤖 L'IA au service de l'éducation : Apprenez comment l'intelligence artificielle peut améliorer l'efficacité et la précision de vos évaluations. Réservez votre place ici 👉 https://lnkd.in/gMNRp4DX VIRGINIE GUIEAU SOPHIE TORRE Pierre-Louis Cacot Florian Larbalestier Sarah ALCIDE Arnaud Kremli Tania Kara Jean Philippe DELAUNAY BELLEVILLE
Identifiez-vous pour afficher ou ajouter un commentaire
-
[Suggestions de Lecture] Pour ceux qui cherchent des ouvrages passionnants et brillants sur les données, l'IA, la connaissance et la transformation numérique, je vous recommande vivement mes 4 dernières lectures. -> Quand la machine apprend, La révolution des neurones artificiels et de l'apprentissage profond de Yann Le Cun Mon intérêt pour l’IA date d’un peu plus d’un an, d’abord avec le machine learning, ensuite en analysant les perspectives juridiques suite à l’IA ACT. Ce livre est un cadeau, extrêmement bien écrit, il se dévore comme un roman. Vous y trouverez une grande pédagogie dans les explications scientifiques, des documents d’archives, des histoires et toute la démarche intellectuelle de Yann Lecun. Ce livre a également déverrouillé mes blocages psychologiques envers les réseaux de neurones, Indispensable. ->The AI-Powered Enterprise, Harness the Power of Ontologies to Make your Business Smarter, Faster, and More Profitable de Seth Earley Travaillant depuis 4 ans sur les ontologies BIM, je cherchais des ressources pour m'améliorer et surtout exploiter leur potentiel pour la modélisation des connaissances au vu de l'accélération de l’IA. Depuis, cet ouvrage est sur mon bureau, il contient des ressources stratégiques, méthodologiques, des cas d’usage, une référence pour ceux qui comme moi aiment travailler sur les données, la sémantique, les taxonomies, et les ontologies pour identifier la valeur des solutions numériques créées. -> Augment It: How Architecture, Engineering and Construction Leaders Leverage Data and Artificial Intelligence to Build a Sustainable Future de Mehdi Nourbakhsh. Ouvrage incontournable pour tous les acteurs de l’AECO qui mettent la data et l’IA au cœur de leur transformation. Outre les explications particulièrement claires sur l’IA et les données, cet ouvrage constitue un guide pour l’identification des problématiques et des challenges du secteur et contient des exemples très bien documentés et inspirants, une bible! -> Les sept mesures du monde: Du temps qui passe au poids des choses, l'histoire d'une formidable aventure scientifique de Piero Martin. Une approche historique de la mesure du monde qui m'a inspiré beaucoup d’humilité, livre fascinant où l’on comprend les enjeux de systèmes universels pour comprendre le monde et mieux l'appréhender. Un coup de coeur. Pour rappel, les 7 unités de mesure fondamentales grâce auxquelles tout est quantifié sont le mètre, la seconde, le kilogramme, le kelvin, l’ampère, la mole et le candela. #DATA #IA #CONNAISSANCE
Identifiez-vous pour afficher ou ajouter un commentaire
323 abonnés