Petite lecture avant ce week-end prolongé pour beaucoup d'entre nous ! Je me prête au jeu de la rédaction d'article pour notre blog #KomeetTechnologies, sujet du jour "La self-service BI à l'heure des LLM" Le pitch : La Self-Service BI modifie fondamentalement le paysage des entreprises en permettant à chaque utilisateur de gérer directement ses propres données. Cette autonomie promet une prise de décision plus rapide, tout en présentant certains défis. Comment les Large Language Models (LLM) peuvent-ils aider à surmonter ces obstacles ? 🔗 https://lnkd.in/dJb-CKEK Bonne lecture à tous ! #BusinessIntelligence #DataAnalytics #LLM #DataGovernance #Tech #DataDriven #BI #KomeetTechnologies
Post de Marc Durao
Plus de posts pertinents
-
🚀 Nouvel article disponible ! Par Marc Durao La Self-Service BI modifie fondamentalement le paysage des entreprises en permettant à chaque utilisateur de gérer directement ses propres données. Cette autonomie promet une prise de décision plus rapide, tout en présentant certains défis. Comment les Large Language Models (LLM) peuvent-ils aider à surmonter ces obstacles ? Découvrez-le en approfondissant notre article. 🔗 Pour plus de détails, rendez-vous dans le premier commentaire. #BusinessIntelligence #DataAnalytics #LLM #DataGovernance #Tech #DataDriven #BI #komeet #data
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Nouvel article disponible ! Par Marc Durao La Self-Service BI modifie fondamentalement le paysage des entreprises en permettant à chaque utilisateur de gérer directement ses propres données. Cette autonomie promet une prise de décision plus rapide, tout en présentant certains défis. Comment les Large Language Models (LLM) peuvent-ils aider à surmonter ces obstacles ? Découvrez-le en approfondissant notre article. 🔗 Pour plus de détails, rendez-vous dans le premier commentaire. #BusinessIntelligence #DataAnalytics #LLM #DataGovernance #Tech #DataDriven #BI #komeet #data
Identifiez-vous pour afficher ou ajouter un commentaire
-
La DataNews par Data Quiz #43: Des outils IA pour l'analyse de données(https://lnkd.in/gjGnSHgx) L'analyse des données est désormais l'une des fonctions essentielles de toute organisation axée sur les données. Cette fonction peut être rempli grâce à des outils pouvant servir à une bonne analyse de ses données et pour faciliter la tâche des data analystes. Ces outils sont le plus souvent liés à l'intelligence artificielle qui permet un traitement puissant, efficace et accessible de ces données. Voici quelques exemples d'outil fraîchement débarqué ou améliorer pour permettre ce traitement de données : 1. Julius IA Julius AI est un outil d'analyse de données intelligent qui interprète, analyse et visualise des données complexes. Il permet de rendre l’analyse des données accessible et exploitable, même pour ceux qui ne sont pas des data scientists ou des statisticiens. Tous les formats de fichiers de données, y compris, les feuilles de calcul (.xls, .xlsx, .xlsm, .xlsb, .csv), les bases de données Google Sheets et Postgres. 2. DataLab DataLab est une IA permettant la transformation des données pour qu'elles puissent être exploitées. Ce logiciel permet aux utilisateurs d'écrire, de mettre à jour et de déboguer du code, d'analyser des données et de générer des rapports complets sans avoir besoin de basculer entre plusieurs outils. L'IA Assistant de DataLab permet aux utilisateurs d'améliorer leur obtentions d'information en "discutant" avec celle-ci. DataLab permet aux équipes de travailler ensemble sur des projets de données, de partager des informations et de maintenir un contrôle de version de manière transparente. 3. Microsoft Power BI Microsoft Power BI est une plate-forme très utile qui permet aux utilisateurs de trier leurs données et de les visualiser pour obtenir des informations. Les utilisateurs peuvent importer des données à partir de presque n'importe quelle source, et créer des rapports/tableaux à partir de cela. Microsoft Power BI permet également aux utilisateurs de créer des modèles d'apprentissage automatique et d'utiliser d'autres fonctionnalités basées sur l'IA pour analyser les données. Si une entreprise utilise déjà des outils Microsoft, Power BI peut être facilement mis en œuvre pour le reporting et la visualisation des données et pour la création de tableaux de bord. Notre site internet : https://lnkd.in/evnpkBvh #dataquiz #entreprise #bigdata #IA #datanews
Identifiez-vous pour afficher ou ajouter un commentaire
-
Looker vient de frapper fort dans le monde de l'analyse de données. Avec sa nouvelle interface SQL, il ouvre une couche sémantique marquant un tournant décisif pour les utilisateurs. Plus qu'une simple mise à jour, c'est une réinvention de la façon dont on interagit avec les données. Imagine un outil qui rend le SQL accessible à tout le monde, déployant une interface intuitive qui démystifie les complexités des requêtes. L'objectif ? Rendre l'analyse de données non seulement accessible, mais aussi compréhensible. On parle ici de démocratisation des données, où même ceux qui ne sont pas des matheux peuvent se plonger dans les chiffres sans crainte. C'est une avancée prometteuse, mais il y a une question qui mérite réflexion : est-ce que cette simplification ne va pas banaliser l'expertise des analystes ? Ne ratez pas cette analyse détaillée sur les implications de cette mise à jour majeure et ce qu'elle signifie pour l'avenir de l'analyse des données. Prêt à plonger dans cette révolution de l'analytique ? Lisez la suite ici : https://lnkd.in/eRkTecYr #DataAnalytics #Looker #SQL #Innovation #BusinessIntelligence
Identifiez-vous pour afficher ou ajouter un commentaire
-
Enfin, un projet open source pour les pros la data et de l'analytique ! Pas seulement de la tech 🛠 L'écosystème data regorge de repos et d'outils open sources : sckit learn, pandas, dbt, polars, dlt, etc Top ! Mais orienté tech : algo, API, gestion des erreurs, etc. Ni ma came ni mon coeur de métier. La data commence par le business, finit par le business, avec de la tech au milieu. Je veux travailler avec des données qui ont un contexte de collecte, une utilisation, puis dérouler la solution tech pour y arriver. Les données publiques sont parfaites pour cet exercice. Collectées dans un cadre connu et utilisées partout. Il y'a plus qu'à utiliser les bonnes technos au bon endroit ! C'est l'ambition de https://make-open-data.fr/ Venez nous aider à la transformer en produit data consommable par le maximum d'utilisateurs. Que vous soyez profanes en quête de votre premier group by sur un million de lignes, ou ceinture noire brûlant de soif de discussion ontologie ou CI/CD. Si vous êtes juste enthousiaste, n'hésitez pas à nous encourager avec une petite étoile sur GitHub : https://lnkd.in/dfT6nJq7 Si vous voulez les données nettoyées, les voici : https://lnkd.in/dZDx33CM
Identifiez-vous pour afficher ou ajouter un commentaire
-
C'est une 𝗲𝗿𝗿𝗲𝘂𝗿 commise par de nombreux data scientists : celle d'𝗶𝗺𝗽𝗹𝗲́𝗺𝗲𝗻𝘁𝗲𝗿 𝗱𝗲𝘀 𝘀𝗼𝗹𝘂𝘁𝗶𝗼𝗻𝘀 𝘁𝗿𝗼𝗽 𝗰𝗼𝗺𝗽𝗹𝗲𝘅𝗲𝘀. Face à une feature produit spécifique (ou un problème métier identifié), il y a presque toujours plusieurs solutions possibles. Il est tentant de choisir la solution la plus en vogue... Pourtant, débuter avec des méthodes simples (y compris celles ne faisant pas appel au ML) présente plusieurs avantages : 1️⃣ Une mise en œuvre et une évaluation rapide de la pertinence de la fonctionnalité 2️⃣ Etablir une baseline et incrémenter sur cette dernière 3️⃣ Un retour sur investissement mesurable, facilement comparable à celui d'approches plus sophistiquées Examinons quelques cas pratiques sur lesquels j'ai travaillé : 𝗦𝗲𝗴𝗺𝗲𝗻𝘁𝗮𝘁𝗶𝗼𝗻 𝗰𝗹𝗶𝗲𝗻𝘁 : commencer par une segmentation RFM, qui parle au métier, avant d'explorer des méthodes comme le k-means. 𝗠𝗼𝘁𝗲𝘂𝗿 𝗱𝗲 𝗿𝗲𝗰𝗵𝗲𝗿𝗰𝗵𝗲 : un simple calcul de similarité peut être efficace. On peut ensuite enrichir le système avec des embeddings. 𝗣𝗿𝗲́𝘃𝗶𝘀𝗶𝗼𝗻 𝗱𝗲𝘀 𝘃𝗲𝗻𝘁𝗲𝘀 : selon le contexte, une approche basée sur une fonction croissante (comme le lissage exponentiel) peut s'avérer suffisante. Il est ensuite possible d'expérimenter avec des modèles comme ARIMA, Prophet, etc. Comme vous pouvez le voir, il existe souvent 𝘂𝗻𝗲 𝗽𝗿𝗲𝗺𝗶𝗲̀𝗿𝗲 𝘃𝗲𝗿𝘀𝗶𝗼𝗻 𝘀𝗶𝗺𝗽𝗹𝗲 et 𝗲́𝗰𝗼𝗻𝗼𝗺𝗶𝗾𝘂𝗲 qui permet de valider l'intérêt de la fonctionnalité. Cela rassure le métier et fournit un point de comparaison utile pour l'intégration de solutions plus élaborées. ___ Je partage quotidiennement du contenu sur #python, la #datascience, l'#IA, et la #data en général.
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Claude 3.5 Sonnet : L’analyse de données au niveau supérieur ! Anthropic dévoile une fonctionnalité d’analyse de données pour Claude, optimisée pour les besoins techniques des data analysts : 💻 JavaScript exécuté nativement : permet des calculs et manipulations avancés directement dans l'interface de l'IA. 📂 Support CSV : charge, nettoie et analyse de gros volumes de données CSV en quelques secondes. 📊 Visualisations interactives : génère des graphiques en temps réel pour un aperçu immédiat des insights. 🔄 Accès anticipé : parfait pour tester et affiner les workflows d’analyse. Claude ouvre de nouvelles perspectives pour une exploitation des données rapide et automatisée. #DataScience #Analytics #MachineLearning #IA #Anthropic https://lnkd.in/e2CwdehN
Claude lance un nouvel outil d’analyse de données : comment ça marche
blogdumoderateur.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Knime : Le couteau suisse des solutions Data et bien plus ! Chers passionnés de Data, Je suis actuellement étudiant en Big Data & Intelligence Artificielle et à la recherche d'une alternance en Data Science. Aujourd'hui, j’aimerais vous parler d’un outil qui mérite à mon avis plus de reconnaissance : Knime. 💡 Pourquoi j’apprécie Knime ? Open Source : Gratuit et accessible à tous, idéal pour des projets variés, que vous soyez débutant ou expert. Nouvelle interface : Knime a connu un véritable renouveau. Son interface, autrefois vieillotte, est désormais bien plus ergonomique et agréable à utiliser. Polyvalent : Knime est un outil low code qui va bien au-delà de la Data Science. Que vous ayez besoin de préparation de données, d'automatisation de processus, de visualisation ou encore de modélisation, il peut tout faire. Communauté active : Une mine de ressources disponibles et un support exceptionnel pour vous accompagner. 🔄 Mon expérience avec Knime et Alteryx : Knime, à mes débuts, c’était un peu comme un vieux couteau suisse : fonctionnel mais avec des lames un peu rouillées et trop nombreuses. Son interface complexe rendait parfois l’utilisation laborieuse, mais sa polyvalence était indéniable. Ensuite, j’ai découvert Alteryx, que je décrirais comme un couteau suisse moderne et bien poli, présenté dans une boîte élégante. L’interface est tellement conviviale que c’est un plaisir à utiliser au quotidien, mais cela a un coût. Aujourd’hui, avec ses récentes mises à jour, Knime a bien rattrapé son retard. Il est devenu non seulement intuitif et agréable, mais reste gratuit et adaptable à une multitude de cas d’usage, qu’il s’agisse de Data Science, d'automatisation ou même de gestion de processus métiers. Knime est devenu un outil puissant, aussi bien pour les débutants que pour les experts. 📈 Quelques cas d'utilisation : Marketing : Optimiser des campagnes et créer des segments de clients ciblés. Finance : Analyse prédictive pour la détection des fraudes. Industrie : Maintenance prédictive et optimisation des processus. Automatisation : Simplifier et automatiser des tâches répétitives. Ce post n'est pas sponsorisé (je n'en suis pas encore là 😅), mais je pense vraiment que Knime mérite plus de reconnaissance. Si vous cherchez un outil polyvalent, open source, et fiable pour vos projets data, je vous encourage vivement à explorer Knime. Téléchargez-le, essayez-le, et n’hésitez pas à partager vos retours ! Télécharger KNIME : https://lnkd.in/ePM7jd9X Tutoriels et Documentation : https://lnkd.in/e_RszxiY https://lnkd.in/eDUam6TR #DataScience #BigData #AI #KNIME #OpenSource #Automatisation #DataAnalytics #MachineLearning
Identifiez-vous pour afficher ou ajouter un commentaire
-
Très bon article ! En effet, on peut généralement simplifier d'un facteur deux à trois la complexité d'un modèle de Data Science ou d'IA en travaillant la donnée en amont par du feature engineering et des recodages plus poussés de la donnée. Par contre cela nécessite une forte compétence en Statistiques et surtout du temps et de l'énergie. Une approche que j'essaye d'enseigner à mes apprenants dans toutes les occasions possibles, mais qui a tendance a se perdre dans les messages marketing démagogiques sur l'IA que l'on trouve dans les média actuellement Business & Decision Orange Business Romain BERNARD Erwan JOSSE Pierre-Henri Mas Paul Ferré Luc Thomas Benjamin Tardy
C'est une 𝗲𝗿𝗿𝗲𝘂𝗿 commise par de nombreux data scientists : celle d'𝗶𝗺𝗽𝗹𝗲́𝗺𝗲𝗻𝘁𝗲𝗿 𝗱𝗲𝘀 𝘀𝗼𝗹𝘂𝘁𝗶𝗼𝗻𝘀 𝘁𝗿𝗼𝗽 𝗰𝗼𝗺𝗽𝗹𝗲𝘅𝗲𝘀. Face à une feature produit spécifique (ou un problème métier identifié), il y a toujours plusieurs solutions possibles. Il est tentant de choisir la solution la plus en vogue... Pourtant, débuter avec des méthodes simples (y compris celles ne faisant pas appel au ML) présente plusieurs avantages : 1️⃣ Une mise en œuvre et une évaluation rapide de la pertinence de la fonctionnalité 2️⃣ Etablir une baseline et incrémenter sur cette dernière 3️⃣ Un retour sur investissement mesurable, facilement comparable à celui d'approches plus sophistiquées Examinons quelques cas pratiques sur lesquels j'ai travaillé : 𝗦𝗲𝗴𝗺𝗲𝗻𝘁𝗮𝘁𝗶𝗼𝗻 𝗰𝗹𝗶𝗲𝗻𝘁 : commencer par une segmentation RFM, qui parle au métier. 𝗠𝗼𝘁𝗲𝘂𝗿 𝗱𝗲 𝗿𝗲𝗰𝗵𝗲𝗿𝗰𝗵𝗲 : un simple calcul de similarité peut être efficace. On peut ensuite enrichir le système avec des embeddings. 𝗣𝗿𝗲́𝘃𝗶𝘀𝗶𝗼𝗻 𝗱𝗲𝘀 𝘃𝗲𝗻𝘁𝗲𝘀 : selon le contexte utilisant un lissage exponentiel peut s'avérer suffisante. Il est ensuite possible d'expérimenter avec des modèles comme ARIMA, Prophet, etc. Comme vous pouvez le voir, il existe souvent 𝘂𝗻𝗲 𝗽𝗿𝗲𝗺𝗶𝗲̀𝗿𝗲 𝘃𝗲𝗿𝘀𝗶𝗼𝗻 𝘀𝗶𝗺𝗽𝗹𝗲 et 𝗲́𝗰𝗼𝗻𝗼𝗺𝗶𝗾𝘂𝗲 qui permet de valider l'intérêt de la fonctionnalité. Cela rassure le métier et fournit un point de comparaison utile pour l'intégration de solutions plus élaborées. ___ Je partage quotidiennement du contenu sur #python, la #datascience, l'#IA, et la #data en général.
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 𝐄𝐓𝐋 : 𝐋𝐞 𝐦𝐨𝐭𝐞𝐮𝐫 𝐜𝐚𝐜𝐡𝐞́ 𝐝𝐞𝐫𝐫𝐢𝐞̀𝐫𝐞 𝐯𝐨𝐬 𝐦𝐨𝐝𝐞̀𝐥𝐞𝐬 𝐝𝐞 𝐌𝐋 𝐪𝐮𝐢 𝐟𝐚𝐢𝐭 𝐭𝐨𝐮𝐭𝐞 𝐥𝐚 𝐝𝐢𝐟𝐟𝐞́𝐫𝐞𝐧𝐜𝐞 ! Pour effectuer des analyses et mettre sur pied des modèles de ML, on a recours à des données qui sont, pour la plupart, déjà disponibles et parfois déjà transformées. Mais savez-vous tout le processus qui est effectué en arrière-plan pour avoir ces données ? 🔄 𝐋𝐞 𝐩𝐫𝐨𝐜𝐞𝐬𝐬𝐮𝐬 𝐄𝐓𝐋 (𝐄𝐱𝐭𝐫𝐚𝐜𝐭, 𝐓𝐫𝐚𝐧𝐬𝐟𝐨𝐫𝐦, 𝐋𝐨𝐚𝐝) est souvent le héros méconnu de l'analyse de données : 📥 𝐄𝐱𝐭𝐫𝐚𝐜𝐭 : C'est l'art de collecter les données brutes depuis diverses sources - bases de données, fichiers CSV, APIs, logs systèmes... Une étape cruciale qui demande rigueur et précision. 🔧 𝐓𝐫𝐚𝐧𝐬𝐟𝐨𝐫𝐦 : La phase la plus complexe où la donnée brute devient exploitable. Nettoyage, standardisation, agrégation, enrichissement... C'est ici que la donnée prend tout son sens. 📤 𝐋𝐨𝐚𝐝 : L'étape finale où les données transformées sont chargées dans leur destination finale (data warehouse, data lake...), prêtes à être analysées. 💡 Sans un processus ETL robuste, pas de données fiables, et sans données fiables, pas d'analyses pertinentes ni de modèles ML performants ! Qu'en pensez-vous ? Partagez vos expériences avec les processus ETL ! #DataEngineering #ETL #DataScience #MachineLearning #DataAnalytics
Identifiez-vous pour afficher ou ajouter un commentaire