🚀 Claude 3.5 Sonnet : L’analyse de données au niveau supérieur ! Anthropic dévoile une fonctionnalité d’analyse de données pour Claude, optimisée pour les besoins techniques des data analysts : 💻 JavaScript exécuté nativement : permet des calculs et manipulations avancés directement dans l'interface de l'IA. 📂 Support CSV : charge, nettoie et analyse de gros volumes de données CSV en quelques secondes. 📊 Visualisations interactives : génère des graphiques en temps réel pour un aperçu immédiat des insights. 🔄 Accès anticipé : parfait pour tester et affiner les workflows d’analyse. Claude ouvre de nouvelles perspectives pour une exploitation des données rapide et automatisée. #DataScience #Analytics #MachineLearning #IA #Anthropic https://lnkd.in/e2CwdehN
Post de Neonum
Plus de posts pertinents
-
Gérer plus de 5 millions de lignes en quelques secondes ? Oui, c'est possible avec un dashboard ou une application bien structurée ! Trop souvent, on développe des applications en testant sur des petits jeux de données, oubliant le challenge avec de grandes bases de données. De plus, Si on clique trop vite, les graphiques clignotent ou se rechargent à l’infini. Certaines sorties se calculent plusieurs fois avant d’apparaître. On perd complètement de vue les liens de dépendance entre les entrées, les données et les sorties. La solution ? Adopter des outils réactifs durant la conception. Sur Shiny, par exemple, vous avez des fonctions clés comme : ➡️ reactive() ➡️ eventReactive() ➡️ observe(), observeEvent() ➡️ reactiveValues() et même isolate() pour optimiser les délais d’exécution. Avec ces bonnes pratiques, vos applications seront plus fluides, robustes et prêtes pour le big data comme le montre le tuto avec une base de données de plus de 5 millions de lignes. 👉 Et toi, quelles stratégies utilises-tu pour optimiser tes applications streamlit, shiny, face aux grandes bases de données ? Pour en savoir pus, lire l'article : https://lnkd.in/ey4vpe8e #ProgrammationReactive #Shiny #Dashboard #DataScience #DataAnalysis #WebApplication
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔍 Des années d'analyse de données... des tonnes de frameworks testés pour dénicher l'info cachée. Mais rien, RIEN de plus efficace... que mes propres yeux 👀 ! Quand je plonge dans un dataset, je commence toujours par l'observer sous toutes les coutures. Et pourtant, je vois encore trop de data scientists qui continuent de faire des stats descriptives... 🤯 sans même connaître ydata-profiling (pandas-profiling pour les initiés). 💡 Astuce du jour : avec une ligne de code et 5 secondes ⏳, vous obtenez un dashboard interactif qui vous révèle tout sur vos variables. Fini les galères pour explorer vos données ! 🎁 Vous pouvez me remercier plus tard 😉 P.S. : Qui ici reconnaît le dataset ? 🧐 #data #datascience #profiling #pandas #dataframe
Identifiez-vous pour afficher ou ajouter un commentaire
-
Petite lecture avant ce week-end prolongé pour beaucoup d'entre nous ! Je me prête au jeu de la rédaction d'article pour notre blog #KomeetTechnologies, sujet du jour "La self-service BI à l'heure des LLM" Le pitch : La Self-Service BI modifie fondamentalement le paysage des entreprises en permettant à chaque utilisateur de gérer directement ses propres données. Cette autonomie promet une prise de décision plus rapide, tout en présentant certains défis. Comment les Large Language Models (LLM) peuvent-ils aider à surmonter ces obstacles ? 🔗 https://lnkd.in/dJb-CKEK Bonne lecture à tous ! #BusinessIntelligence #DataAnalytics #LLM #DataGovernance #Tech #DataDriven #BI #KomeetTechnologies
La self-service BI à l’heure des LLM
https://komeet.tech
Identifiez-vous pour afficher ou ajouter un commentaire
-
Optimisez la gestion de vos opérations de collecte de données avec R Vous rencontrez des défis quotidiens pour gérer les opérations de collecte de données sur le terrain ? Si vous : - Téléchargez les données chaque jour, - Importez les données dans Excel, SPSS ou Stata, - Calculez les indicateurs, - Importez les données dans QGIS ou ArcGIS pour créer des cartes, - Copiez-collez les résultats dans Word, - Faites la mise en forme du document, Vous utilisez au moins 3 logiciels différents et vous souffrez énormément. Heureusement, R, avec ses puissants packages, peut révolutionner votre flux de travail. Voici comment : - Se connecter au serveur : Connectez-vous au serveur hébergeant les données (ODK, Kobo, SurveyCTO, CSPro, …) via l'API (httr, jsonlite) et accédez directement aux données sans les télécharger. - Calculer les indicateurs : Utilisez tidyverse pour nettoyer et analyser les données avec des scripts reproductibles. - Créer des cartes interactives : Créez des cartes interactives et dynamiques avec leaflet et sf pour une visualisation géospatiale avancée. - Générer des rapports automatiques : Utilisez rmarkdown ou quarto pour générer des rapports dynamiques et automatisés sur l’avancement de la collecte et sur les erreurs détectées. - Intégrer dans une application : Rassemblez le tout dans une application shiny pour une gestion centralisée et interactive de vos données. Pourquoi choisir R ? R est une solution complète qui vous permet d'automatiser et d'intégrer toutes les étapes de votre flux de travail, réduisant ainsi les erreurs, améliorant l'efficacité et permettant une analyse en temps réel. Imaginez un environnement où vous pouvez : - Suivre les progrès de la collecte de données en temps réel, - Identifier et corriger les erreurs immédiatement, - Créer des visualisations et des rapports professionnels en quelques clics. Rejoignez l'univers R et découvrez comment transformer vos opérations de collecte de données pour gagner en efficacité, en précision et en temps. Je suis Bervelin Lumesa, Statisticien/Data Scientist Je vous aide à mettre en place un système de collecte mobile avec suivi en temps réel grâce aux applications web. Suivez-moi pour plus de contenus autour de la Data. #datacollection #mobiledatacollection #datascience #RStats #dataVisualization #ShinyApps
Identifiez-vous pour afficher ou ajouter un commentaire
-
Looker, la plateforme d'analyse qui commence à faire du bruit, vient d’ouvrir son interface sémantique à de nouveaux connecteurs, notamment pour Tableau. Qu'est-ce que ça veut dire pour nous, simples mortels ? En gros, il devient plus facile de lier et d’exploiter les données provenant de différentes sources sans devoir jongler entre une flopée d’outils. Cette initiative pourrait révolutionner la manière dont les entreprises mettent en lumière leurs données et prennent des décisions. L'interface sémantique vise à rendre les données plus accessibles, en les contextualisant pour les utilisateurs. C'est aussi un coup de pouce pour ceux qui n’ont pas fait de longues études de data science. Si vous êtes fatigué des modèles d’analyse complexes, cette nouveauté pourrait bien réjouir votre cœur (et votre esprit). Vous voulez en savoir plus sur cette avancée qui pourrait changer votre approche de l’analyse de données ? Plongez dans l'article complet ici : https://lnkd.in/ekU6AyNW #DataAnalytics #Looker #Tableau #BusinessIntelligence #TechNews
Identifiez-vous pour afficher ou ajouter un commentaire
-
𝗩𝗶𝘀𝘂𝗮𝗹𝗶𝘀𝗮𝘁𝗶𝗼𝗻 𝗱𝗲 𝗹𝗮 𝗻𝗼𝗿𝗺𝗮𝗹𝗶𝘁𝗲́ : 𝗟'𝗶𝗺𝗽𝗼𝗿𝘁𝗮𝗻𝗰𝗲 𝗱𝘂 𝗴𝗿𝗮𝗽𝗵𝗶𝗾𝘂𝗲 𝗤-𝗤 Lorsque l'on travaille avec des données, il est important de comprendre leur distribution avant d'appliquer certains modèles statistiques. Un outil 𝘀𝗶𝗺𝗽𝗹𝗲 mais 𝗽𝘂𝗶𝘀𝘀𝗮𝗻𝘁 pour cette tâche est le graphique 𝗤-𝗤 (𝗤𝘂𝗮𝗻𝘁𝗶𝗹𝗲-𝗤𝘂𝗮𝗻𝘁𝗶𝗹𝗲). 𝗤𝘂'𝗲𝘀𝘁-𝗰𝗲 𝗾𝘂'𝘂𝗻 𝗴𝗿𝗮𝗽𝗵𝗶𝗾𝘂𝗲 𝗤-𝗤 ? : Le graphique Q-Q permet de 𝗰𝗼𝗺𝗽𝗮𝗿𝗲𝗿 la distribution de vos données à une distribution théorique, comme la distribution normale. Si les points suivent une 𝗹𝗶𝗴𝗻𝗲 𝗱𝗿𝗼𝗶𝘁𝗲, cela indique que vos données sont bien alignées avec la distribution théorique. 𝗣𝗼𝘂𝗿𝗾𝘂𝗼𝗶 𝗰'𝗲𝘀𝘁 𝗶𝗺𝗽𝗼𝗿𝘁𝗮𝗻𝘁 ? : Certains tests statistiques et modèles comme la 𝗿𝗲́𝗴𝗿𝗲𝘀𝘀𝗶𝗼𝗻 𝗹𝗶𝗻𝗲́𝗮𝗶𝗿𝗲 supposent que les données suivent une 𝗱𝗶𝘀𝘁𝗿𝗶𝗯𝘂𝘁𝗶𝗼𝗻 𝗻𝗼𝗿𝗺𝗮𝗹𝗲. Utiliser un graphique Q-Q vous aide à vérifier cette hypothèse et à éviter des conclusions biaisées. 𝗜𝗻𝘁𝗲𝗿𝗽𝗿𝗲́𝘁𝗮𝘁𝗶𝗼𝗻 𝗱𝘂 𝗴𝗿𝗮𝗽𝗵𝗶𝗾𝘂𝗲 : Sur le graphique Q-Q que j'ai partagé ici, la majorité des points suivent bien la ligne rouge, ce qui suggère que les données sont 𝗮𝗽𝗽𝗿𝗼𝘅𝗶𝗺𝗮𝘁𝗶𝘃𝗲𝗺𝗲𝗻𝘁 normales. Toutefois, quelques points en bas à gauche et en haut à droite s'écartent de la ligne, ce qui peut indiquer des 𝗼𝘂𝘁𝗹𝗶𝗲𝗿𝘀 ou une légère déviation de la normalité. 𝗖𝗼𝗻𝗰𝗹𝘂𝘀𝗶𝗼𝗻 : Avant de plonger dans l'analyse des données ou de construire des modèles, prenez le temps d'explorer la distribution de vos données avec des outils comme le 𝗴𝗿𝗮𝗽𝗵𝗶𝗾𝘂𝗲 𝗤-𝗤. Si vous me découvrez maintenant, je suis Goli Yao Hugues, votre autodidacte préféré. Je parle de Data et de Dev Mobile & Web. Si cela vous intéresse n'hésitez pas à me suivre Quelle approche utilisez vous pour vérifier la normalité de vos données ? #HuguesCodeur #GoliYaoHugues #DataScience #NormalDistribution #GrapheQuantille #MachineLearning #Statistiques #DataAnalysis
Identifiez-vous pour afficher ou ajouter un commentaire
-
Looker vient de frapper fort dans le monde de l'analyse de données. Avec sa nouvelle interface SQL, il ouvre une couche sémantique marquant un tournant décisif pour les utilisateurs. Plus qu'une simple mise à jour, c'est une réinvention de la façon dont on interagit avec les données. Imagine un outil qui rend le SQL accessible à tout le monde, déployant une interface intuitive qui démystifie les complexités des requêtes. L'objectif ? Rendre l'analyse de données non seulement accessible, mais aussi compréhensible. On parle ici de démocratisation des données, où même ceux qui ne sont pas des matheux peuvent se plonger dans les chiffres sans crainte. C'est une avancée prometteuse, mais il y a une question qui mérite réflexion : est-ce que cette simplification ne va pas banaliser l'expertise des analystes ? Ne ratez pas cette analyse détaillée sur les implications de cette mise à jour majeure et ce qu'elle signifie pour l'avenir de l'analyse des données. Prêt à plonger dans cette révolution de l'analytique ? Lisez la suite ici : https://lnkd.in/eRkTecYr #DataAnalytics #Looker #SQL #Innovation #BusinessIntelligence
Identifiez-vous pour afficher ou ajouter un commentaire
-
Vous rencontrez des problèmes d'incohérences dans les indicateurs ? D'un accès compliqué des équipes métier aux données ? Le Semantic Layer peut vous aider ! Dans cet article, je vous propose de vous expliquer ce concept qui devient de plus en plus populaire. Notamment grâce à dbt qui a lancé son propre Semantic Layer. Je rentrerais dans le détail des différents outils qui permettent de l'implémenter à partir de la semaine prochaine ! Connaissiez-vous ce principe de Semantic Layer et l'avez-vous implémenté dans votre entreprise ? Je serais curieux d'avoir vos retours 😉
Le Semantic Layer : Comment il simplifie l'accès aux métriques ? - Kévin Bénard
https://kevin-benard.fr
Identifiez-vous pour afficher ou ajouter un commentaire
-
Problème : Métadonnées absentes d'une table. Comment accélérer l'annotation des données ? 👇 Dans la pratique, il n'est pas rare de tomber sur une table qui n'a pas de métadonnées associées. Cela peut être dû à un manque de temps, d'intérêt, ou au niveau de maturité de l'entreprise en matière de gestion des données. L'implémentation d'un 𝐷𝑎𝑡𝑎 𝐶𝑎𝑡𝑎𝑙𝑜𝑔, par exemple, est recommandée. Il existe des techniques pour tenter d'automatiser ce processus, connu sous le nom de 𝑇𝑎𝑏𝑙𝑒 𝐴𝑛𝑛𝑜𝑡𝑎𝑡𝑖𝑜𝑛. Cela consiste à identifier des informations sémantiques concernant les éléments d'un tableau, y compris les colonnes, leurs relations, et les entités dans les cellules. 𝐄𝐱𝐞𝐦𝐩𝐥𝐞 𝐞𝐧 𝐢𝐦𝐚𝐠𝐞 Dans les instructions du modèle, je demande d'analyser un échantillon d'une table et de suggérer des annotations conformes aux normes de 𝑆𝑐ℎ𝑒𝑚𝑎.𝑜𝑟𝑔. Voici ce que le modèle génère : - Le 𝐭𝐲𝐩𝐞 𝐬𝐞́𝐦𝐚𝐧𝐭𝐢𝐪𝐮𝐞 𝐝𝐞 𝐥𝐚 𝐭𝐚𝐛𝐥𝐞 - Une brève 𝐝𝐞𝐬𝐜𝐫𝐢𝐩𝐭𝐢𝐨𝐧 de chaque 𝐜𝐨𝐥𝐨𝐧𝐧𝐞 - Le 𝐭𝐲𝐩𝐞 𝐝'𝐚𝐧𝐧𝐨𝐭𝐚𝐭𝐢𝐨𝐧 𝐝𝐞 𝐥𝐚 𝐜𝐨𝐥𝐨𝐧𝐧𝐞 selon Schema.org, si applicable - Le 𝐭𝐲𝐩𝐞 𝐥𝐞 𝐦𝐢𝐞𝐮𝐱 𝐚𝐝𝐚𝐩𝐭𝐞́ 𝐩𝐨𝐮𝐫 𝐜𝐡𝐚𝐪𝐮𝐞 𝐜𝐨𝐥𝐨𝐧𝐧𝐞, indépendamment des problèmes de données dus à la sérialisation textuelle fournie 𝐔𝐭𝐢𝐥𝐢𝐬𝐚𝐭𝐢𝐨𝐧 L'objectif ici est d'accélérer le processus initial plutôt que de le rendre entièrement automatisé. Il peut donc être considéré comme une première ébauche, qui peut ensuite être affinée avec des informations supplémentaires et du contexte externe provenant d'experts métiers (SMEs). Les données viennent du livre 𝐶𝑙𝑒𝑎𝑛𝑖𝑛𝑔 𝐷𝑎𝑡𝑎 𝑓𝑜𝑟 𝐸𝑓𝑓𝑒𝑐𝑡𝑖𝑣𝑒 𝐷𝑎𝑡𝑎 𝑆𝑐𝑖𝑒𝑛𝑐𝑒 de David Mertz chez Packt. #DataCleaning #DataQuality #TableAnnotation #LLM --- ⏳ Il est souvent dit que 80% du temps en analyse de données est consacré au nettoyage et à la préparation. 😕 Cette tâche est souvent peu appréciée. 🛠️ Mon but est de vous aider à rendre cette partie du travail plus rapide et plus agréable. 📤 Je partage régulièrement du contenu pratique sur ces sujets pour vous aider.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Quelques exemples de champs calculés dans #Looker Studio Ici en exemple : calculer la part de visite desktop vs visite total SUM(IF(device="Desktop",visits,0))/sum(visits) Louis DUBRUEL a écrit un super article sur le sujet en août 2023 et qui est un des articles les plus lus sur le blog d'UnNest - Data Consulting. Les champs calculés permettent de manière simple de retraiter de la donnée, directement dans le tableau de bord. ✅ Avantages : c'est facile à mettre en place. Pas besoin de travailler sur ses données source. ❌ Inconvénients : cela peut très ralentir fortement le dashboard en fonction du volume de données. On préférera pour les modélisations plus complexe réaliser ces transformations directement dans un data warehouse. Autres exemples d'utilisation (voir article) : ➡ Supprimer les paramètres à la fin des URLs ➡ Grouper des URLs par pattern ➡ Extraire le nom de domaine d’une URL Vous avez un projet de dashboard dans Looker ? Contactez nous avec Louis Liens en commentaires vers l'article
Identifiez-vous pour afficher ou ajouter un commentaire
284 abonnés