Coalesce 2024 à Vegas est terminé, et il est temps d'en tirer les meilleurs enseignements pour avancer dans ton quotidien data ! Voici ce que tu dois retenir : - AI Copilot de dbt : Une nouveauté qui simplifie la création de modèles tout en optimisant la qualité des données et réduisant les erreurs avant la production. - Collaboration et scalabilité : L'accent a été mis sur l'importance de la collaboration entre équipes data et sur des solutions pour faire face à l'explosion des volumes de données via l'automatisation. - Nouvelles intégrations : dbt s'enrichit avec Apache Iceberg, Power BI et DuckDB, facilitant la gestion des pipelines et la gouvernance des données à grande échelle. Alors, prêt(e) à adopter ces innovations ? Partage en commentaire comment tu comptes intégrer l'IA et ces nouvelles pratiques dans tes projets data ! dbt Labs #dbt
Post de Idriss Brahimi
Plus de posts pertinents
-
Enfin, un projet open source pour les pros la data et de l'analytique ! Pas seulement de la tech 🛠 L'écosystème data regorge de repos et d'outils open sources : sckit learn, pandas, dbt, polars, dlt, etc Top ! Mais orienté tech : algo, API, gestion des erreurs, etc. Ni ma came ni mon coeur de métier. La data commence par le business, finit par le business, avec de la tech au milieu. Je veux travailler avec des données qui ont un contexte de collecte, une utilisation, puis dérouler la solution tech pour y arriver. Les données publiques sont parfaites pour cet exercice. Collectées dans un cadre connu et utilisées partout. Il y'a plus qu'à utiliser les bonnes technos au bon endroit ! C'est l'ambition de https://make-open-data.fr/ Venez nous aider à la transformer en produit data consommable par le maximum d'utilisateurs. Que vous soyez profanes en quête de votre premier group by sur un million de lignes, ou ceinture noire brûlant de soif de discussion ontologie ou CI/CD. Si vous êtes juste enthousiaste, n'hésitez pas à nous encourager avec une petite étoile sur GitHub : https://lnkd.in/dfT6nJq7 Si vous voulez les données nettoyées, les voici : https://lnkd.in/dZDx33CM
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Knime : Le couteau suisse des solutions Data et bien plus ! Chers passionnés de Data, Je suis actuellement étudiant en Big Data & Intelligence Artificielle et à la recherche d'une alternance en Data Science. Aujourd'hui, j’aimerais vous parler d’un outil qui mérite à mon avis plus de reconnaissance : Knime. 💡 Pourquoi j’apprécie Knime ? Open Source : Gratuit et accessible à tous, idéal pour des projets variés, que vous soyez débutant ou expert. Nouvelle interface : Knime a connu un véritable renouveau. Son interface, autrefois vieillotte, est désormais bien plus ergonomique et agréable à utiliser. Polyvalent : Knime est un outil low code qui va bien au-delà de la Data Science. Que vous ayez besoin de préparation de données, d'automatisation de processus, de visualisation ou encore de modélisation, il peut tout faire. Communauté active : Une mine de ressources disponibles et un support exceptionnel pour vous accompagner. 🔄 Mon expérience avec Knime et Alteryx : Knime, à mes débuts, c’était un peu comme un vieux couteau suisse : fonctionnel mais avec des lames un peu rouillées et trop nombreuses. Son interface complexe rendait parfois l’utilisation laborieuse, mais sa polyvalence était indéniable. Ensuite, j’ai découvert Alteryx, que je décrirais comme un couteau suisse moderne et bien poli, présenté dans une boîte élégante. L’interface est tellement conviviale que c’est un plaisir à utiliser au quotidien, mais cela a un coût. Aujourd’hui, avec ses récentes mises à jour, Knime a bien rattrapé son retard. Il est devenu non seulement intuitif et agréable, mais reste gratuit et adaptable à une multitude de cas d’usage, qu’il s’agisse de Data Science, d'automatisation ou même de gestion de processus métiers. Knime est devenu un outil puissant, aussi bien pour les débutants que pour les experts. 📈 Quelques cas d'utilisation : Marketing : Optimiser des campagnes et créer des segments de clients ciblés. Finance : Analyse prédictive pour la détection des fraudes. Industrie : Maintenance prédictive et optimisation des processus. Automatisation : Simplifier et automatiser des tâches répétitives. Ce post n'est pas sponsorisé (je n'en suis pas encore là 😅), mais je pense vraiment que Knime mérite plus de reconnaissance. Si vous cherchez un outil polyvalent, open source, et fiable pour vos projets data, je vous encourage vivement à explorer Knime. Téléchargez-le, essayez-le, et n’hésitez pas à partager vos retours ! Télécharger KNIME : https://lnkd.in/ePM7jd9X Tutoriels et Documentation : https://lnkd.in/e_RszxiY https://lnkd.in/eDUam6TR #DataScience #BigData #AI #KNIME #OpenSource #Automatisation #DataAnalytics #MachineLearning
Identifiez-vous pour afficher ou ajouter un commentaire
-
Petite lecture avant ce week-end prolongé pour beaucoup d'entre nous ! Je me prête au jeu de la rédaction d'article pour notre blog #KomeetTechnologies, sujet du jour "La self-service BI à l'heure des LLM" Le pitch : La Self-Service BI modifie fondamentalement le paysage des entreprises en permettant à chaque utilisateur de gérer directement ses propres données. Cette autonomie promet une prise de décision plus rapide, tout en présentant certains défis. Comment les Large Language Models (LLM) peuvent-ils aider à surmonter ces obstacles ? 🔗 https://lnkd.in/dJb-CKEK Bonne lecture à tous ! #BusinessIntelligence #DataAnalytics #LLM #DataGovernance #Tech #DataDriven #BI #KomeetTechnologies
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 Converteo sera présent à BIG DATA & AI PARIS les 15 et 16 octobre prochains ! 🤝 Afin de continuer notre série dédiée à nos partenaires technologiques, et aux origines de l'IA, il y a vos données, et votre capacité à fournir à vos modèles des données de qualité, gouvernées et comprises de tous. dbt Labs c'est à vous ! 🔄 dbt c'est l'outil clé de votre data stack pour construire et gérer des cas d'usage IA s'appuyant sur vos données. En assurant la qualité des données, en rationalisant les transformations de données et en facilitant la collaboration, dbt permet aux équipes d'exploiter efficacement les données afin de produire rapidement de la valeur en réduisant vos risques. ⁉ Chez Converteo nous sommes partenaires avec dbt depuis maintenant plusieurs mois, et avons certifié nombreux de nos collaborateurs sur la solution. Des déploiements de projets innovants avec dbt sont en cours, dont certains déjà en production. Envie d'en savoir plus ? Nos experts seront présents sur le stand C13, n’hésitez pas à venir à notre rencontre ! Julien Quentin Anouar Thibault Julie Pierre Raphaël Jean David Laurent Hamza
Identifiez-vous pour afficher ou ajouter un commentaire
-
Quand Emeric m'a proposé d'écrire la préface de l'ouvrage "The Definitive Guide to Data Integration", je n'ai pas hésité une seconde, et cela m'a replongé 25 années en arrières. Voici comment mon histoire "DATA" a commencé : 🚀 1998, Ignition J’ai découvert le marché de l’intégration de données en 1998 lorsque la société pour laquelle je travaille comme consultant en base de données se fait racheter par un éditeur de logiciel Américain. Cet éditeur spécialiste de l’intégration de données, propose un #ETL graphique s’appuyant sur un moteur de transformation. On tire des traits à la souris entre les sources de données et les systèmes cibles pour développer les interfaces de mouvement de données alimentant les applications analytiques. Une approche design-as-you-think étonnante surtout qu’à cette époque, on développe du code. Du C++, pour garantir la robustesse et la performance des applications. L’alimentation des entrepôts de données se fait en mode batch via des chaînes de traitement en SQL, l’orchestration et le monitoring des différentes étapes d’intégration s’exécutent en shell script. ⏩ Les 3Vs (1) ! Nous étions à mille lieues de penser que cette solution ETL low-code no-code allait devenir un standard adopté par les plus grandes entreprises et que la révolution du monde de la data était en marche. Tout s’est enchaîné rapidement. Des volumes de données croissants à traiter, des sources et des applications à intégrer plus nombreuses, des contraintes opérationnelles fortes et des délais de plus en plus courts pour servir les clients. Les outils data, les architectures et les pratiques devaient évoluer en même temps. Intégrer des données au fil de l’eau, les stocker, gérer la qualité des données, les données de référence, améliorer la collaboration entre les équipes métiers et techniques au travers de programmes de gouvernance, développer de nouvelles applications dans le cloud, autant de défis à relever par les équipes data pour garantir l’excellence opérationnelle ! 🧬 IA : une nouvelle ère ! Ces 25 dernières années se sont déroulées en un instant, la révolution continue et ma passion pour les métiers de la #data aussi. L’intelligence artificielle, démocratisée par le succès incontestable de ChatGPT, nécessite de traiter des quantités de données gigantesques pour constituer ses modèles et va devoir s’appuyer encore plus sur la data ingénierie. Ce livre, écrit par des experts ayant déployé de nombreux projets data, fournit un aperçu complet de ce qu’est l'intégration de données. Je remercie sincèrement Emeric Chaize, Pierre-Yves BONNEFOY, Raphaël MANSUY et Mehdi TAZI de l’avoir écrit ! Cet ouvrage couvre les concepts, techniques et outils essentiels que tout professionnel de la data doit connaître pour créer de la valeur et transformer son entreprise. Je vous souhaite de prendre autant de plaisir que moi à le parcourir ! Stéphane Heckel (1) Volume, Velocity, Variety Lien vers le blog : https://lnkd.in/esk67KTw #dataintegration
Identifiez-vous pour afficher ou ajouter un commentaire
-
Lilac rejoint Databricks pour simplifier l'évaluation des données non structurées pour l'IA générative https://lnkd.in/eANpksQU Aujourd'hui, nous sommes ravis d'annoncer que Lilac rejoint Databricks. Lilac est un outil évolutif et facile à utiliser pour les data scientists, qui leur permet de rechercher, de regrouper et d'analyser tout type de données textuelles notamment grâce à l'IA générative. Lilac couvre une larg...
Lilac rejoint Databricks pour simplifier l'évaluation des données non structurées pour l'IA générative
decideo.fr
Identifiez-vous pour afficher ou ajouter un commentaire
-
Text2SQL : Générer des requêtes SQL grâce à l'#IA 🤖 Dans un monde où les #données sont au cœur de la prise de décision, il est essentiel de rendre leur accès plus intuitif et efficace. 🚀 C'est ici que le #Text2SQL entre en jeu, un outil alimenté par l'intelligence artificielle ! Découvrez comment cette #technologie révolutionne notre interaction avec les bases de données. 👇 🔎 Nos experts sont en mesure de répondre à vos problématiques et vous accompagner grâce à des solutions Text2SQL. Si vous souhaitez en savoir plus, contactez-nous ➡️ hello@starclay.com PARTENOR GROUP #data
Identifiez-vous pour afficher ou ajouter un commentaire
-
Dans un monde où la spécialisation était le mot d'ordre, l'idée d'une plateforme de base de données universelle peut sonner comme une fiction. Mais attendez de découvrir les perspectives éclairées de notre expert du jour, Sylvain Arbaudie, sur la convergence des bases de données. Avons-nous tendance à trop nous compliquer la vie avec une multitude d'outils spécialisés ? Ou est-ce un gage de qualité et de précision dans la tech ? La consolidation des outils de BDD promet une flexibilité époustouflante, mais à quel prix pour les développeurs ? Partagez vos expériences avec les outils que vous utilisez et les tendances que vous observez dans cet univers de la data diversifiée et dynamique. Débattons ici des configurations futures de nos stack techniques ! #DataConvergence #FutureOfData #TechInsights #DevIdeas #BigData
Une BDD pour toutes les gouverner
ifttd.io
Identifiez-vous pour afficher ou ajouter un commentaire
-
En Data Engineering, Spark est un outil très demandé parce qu'il permet de travailler avec un cluster de machine et de manipuler une volumétrie incroyable de données ! J'ai voulu me préparer à ce type de besoin, et j'ai appris pas mal de choses ! (voir Caroussel ci-dessous 😉 ) Vous connaissez la différence entre une transformation et une action ? Je compte bien continuer à progresser sur ces sujets. D'ici là, merci à tous pour vos encouragements 😁 Benjamin Dubreu #DataUpskilling #Spark
Identifiez-vous pour afficher ou ajouter un commentaire
-
Un cas d'usage très important de l'IA générative est le text2SQL, qui permet de rapprocher les données des besoins métier sans nécessiter un intermédiaire tel qu'un data analyst ou data scientist. Grâce à cette technologie, il devient possible d'extraire de la valeur des données et de formuler des requêtes en langage naturel, sans avoir besoin d'être un expert en SQL. Cela démocratise l'accès aux données et optimise les processus décisionnels. 🙂
Text2SQL : Générer des requêtes SQL grâce à l'#IA 🤖 Dans un monde où les #données sont au cœur de la prise de décision, il est essentiel de rendre leur accès plus intuitif et efficace. 🚀 C'est ici que le #Text2SQL entre en jeu, un outil alimenté par l'intelligence artificielle ! Découvrez comment cette #technologie révolutionne notre interaction avec les bases de données. 👇 🔎 Nos experts sont en mesure de répondre à vos problématiques et vous accompagner grâce à des solutions Text2SQL. Si vous souhaitez en savoir plus, contactez-nous ➡️ hello@starclay.com PARTENOR GROUP #data
Identifiez-vous pour afficher ou ajouter un commentaire