[𝘓'𝘰𝘧𝘧𝘳𝘦 𝘥𝘦 𝘳𝘦𝘤𝘳𝘶𝘵𝘦𝘮𝘦𝘯𝘵] 🚀 Envie de coder l'avenir de la finance ? Rejoignez-nous comme 𝗗𝗮𝘁𝗮 𝗘𝗻𝗴𝗶𝗻𝗲𝗲𝗿 𝗦𝗽𝗮𝗿𝗸 / 𝗦𝗰𝗮𝗹𝗮 / 𝗚𝗖𝗣 ! 🚀 Si vous êtes passionné(e) par le 𝗕𝗶𝗴 𝗗𝗮𝘁𝗮 et aimez manipuler 𝗦𝗽𝗮𝗿𝗸, 𝗦𝗰𝗮𝗹𝗮 𝗲𝘁 𝗚𝗖𝗣 pour transformer des architectures, 𝗹𝗶𝘀𝗲𝘇 𝗹𝗮 𝘀𝘂𝗶𝘁𝗲 ! 💡 Nous recherchons pour un client grand compte dans 𝗹𝗲 𝘀𝗲𝗰𝘁𝗲𝘂𝗿 𝗯𝗮𝗻𝗰𝗮𝗶𝗿𝗲 un(e) 𝗗𝗮𝘁𝗮 𝗘𝗻𝗴𝗶𝗻𝗲𝗲𝗿 prêt(e) à s’attaquer aux projets Big Data les plus ambitieux. Vous ferez partie d’une équipe dédiée qui réinvente les outils de pilotage financier et les systèmes d’information décisionnels ! 𝗩𝗼𝘂𝘀 𝗮𝗹𝗹𝗲𝘇… ➡ Concevoir, optimiser et déployer 𝗱𝗲𝘀 𝗮𝗿𝗰𝗵𝗶𝘁𝗲𝗰𝘁𝘂𝗿𝗲𝘀 𝗕𝗶𝗴 𝗗𝗮𝘁𝗮 pour répondre aux besoins métiers 🔧 ➡ 𝗚𝗲́𝗿𝗲𝗿 𝗹𝗲 𝘀𝘁𝗼𝗰𝗸𝗮𝗴𝗲 (HDFS, SQL/NoSQL) et 𝗮𝗹𝗶𝗺𝗲𝗻𝘁𝗲𝗿 𝗹𝗲𝘀 𝗲𝗻𝘁𝗿𝗲𝗽𝗼̂𝘁𝘀 𝗱𝗲 𝗱𝗼𝗻𝗻𝗲́𝗲𝘀 (Hive, BigQuery, Snowflake…) 💾 ➡ Développer des 𝗽𝗶𝗽𝗲𝗹𝗶𝗻𝗲𝘀 𝗱’𝗶𝗻𝗴𝗲𝘀𝘁𝗶𝗼𝗻 𝗲𝘁 𝗱𝗲 𝘁𝗿𝗮𝗶𝘁𝗲𝗺𝗲𝗻𝘁 avec Spark/Scala 📈 ➡ Maintenir les plateformes en conditions opérationnelles et promouvoir les 𝗯𝗲𝘀𝘁 𝗽𝗿𝗮𝗰𝘁𝗶𝗰𝗲𝘀 🔄 𝗘𝘁 𝘀𝗶 𝘃𝗼𝘂𝘀 𝗱𝗲𝘃𝗲𝗻𝗶𝗲𝘇 𝘂𝗻 𝗽𝗶𝗹𝗶𝗲𝗿 𝘁𝗲𝗰𝗵𝗻𝗼𝗹𝗼𝗴𝗶𝗾𝘂𝗲 ? 🚀 Que vous soyez passionné(e) par l’optimisation des systèmes ou curieux(se) des architectures complexes, ce rôle est une 𝗼𝗰𝗰𝗮𝘀𝗶𝗼𝗻 𝘂𝗻𝗶𝗾𝘂𝗲 𝗱𝗲 𝗳𝗮𝗶𝗿𝗲 𝗲́𝘃𝗼𝗹𝘂𝗲𝗿 𝗹𝗲 𝘀𝗲𝗰𝘁𝗲𝘂𝗿 𝗯𝗮𝗻𝗰𝗮𝗶𝗿𝗲 avec des solutions data puissantes et durables ! 🌐 𝗟𝗶𝗲𝗻 𝗱𝗲 𝗹'𝗼𝗳𝗳𝗿𝗲 👉 https://lnkd.in/ecvM-cZ7 👥 Vous connaissez quelqu’un fait pour ce poste ? 𝗣𝗮𝗿𝘁𝗮𝗴𝗲𝘇 𝗰𝗲𝘁𝘁𝗲 𝗼𝗽𝗽𝗼𝗿𝘁𝘂𝗻𝗶𝘁𝗲́ ! 🔄✨ #Recrutement #Data #Engineer #Spark #Scala #GCP #BigData #Finance #Opportunité #Sibylone #Offre
Post de Sibylone
Plus de posts pertinents
-
L'évolution des compétences d'un Data Analyst en 2024 ? 🚀 Les compétences d’un Data Analyst ont évolué, et le marché demande de plus en plus des profils hybrides comme les Analytics Engineers. Pourquoi cette tendance ? Aujourd’hui, les entreprises recherchent des experts capables de gérer l'ensemble du processus analytique : de la collecte à la transformation et l'automatisation des données. Les Analytics Engineers jouent un rôle clé en reliant les équipes Data à l’infrastructure technique. En tant que recruteurs, voici les outils et technologies clés que vous devez connaître pour identifier ces profils à forte demande : 1️⃣ SQL avancé : La base incontournable pour manipuler les données 2️⃣ Dbt : Essentiel pour la transformation des données 3️⃣ BigQuery et Snowflake : Les plateformes cloud de référence pour gérer des données à grande échelle. 4️⃣ Airflow : Pour orchestrer les workflows de données. 5️⃣ Git : Pour versionner les modèles et les pipelines de données. Les entreprises doivent s’adapter à ces nouvelles compétences pour rester compétitives et attirer des talents prêts à prendre en charge toute la chaîne analytique. 💡 #TechSkills #RecrutementData #AnalyticsEngineer #ModernDataStack #strasbourg #suisse #luxembourg #data #dataanalyst
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔎 Lead Big Data recherché – Spark et Scala au cœur de l’innovation ! 📌 Mission stratégique : Concevez, développez et optimisez des pipelines Big Data à grande échelle. Assurez la gouvernance technique, accompagnez les équipes, et travaillez sur des projets d’avant-garde. 💡 Profil recherché : 5+ ans d’expérience, expertise avancée en Spark et Scala, leadership technique, et appétence pour l’innovation. Rejoignez une mission clé dans un environnement dynamique et technologique ! 🚀 #Job 💼 #Recrutement 🤝 #BigData 📊 #Spark 🔥 #Scala 💻 #Leadership 🌟 #DataPipelines 🔧 #Innovation 🚀 #Performance 📈 #DataEngineering 🛠️ #ÉcosystèmeTech 🌐 #OpportunitéProfessionnelle 🌟 #AMICONSULTING
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔎 Consultant Lead Big Data Spark & Scala (H/F) recherché ! 📌 Mission stratégique : Concevez, développez et optimisez des pipelines Big Data complexes. Encadrez et accompagnez les équipes techniques dans l’adoption des meilleures pratiques sur Spark et Scala. 💡 Profil recherché : Minimum 5 ans d’expérience en Big Data, expertise avancée en Spark et Scala, capacité à guider et inspirer des équipes pluridisciplinaires. Rejoignez une mission clé au cœur de l’innovation technologique et des données à grande échelle ! 🚀 #Job 💼 #Recrutement 🤝 #LeadBigData 📊 #Spark 🔥 #Scala 💻 #DataEngineering 🛠️ #Optimisation 🚀 #PipelinesDeDonnées 📂 #ÉcosystèmeBigData 🌐 #Mentorat 🌟 #InnovationTechnologique 💡 #OpportunitéProfessionnelle 🌟 #AMICONSULTING
Consultant Lead Big Data Spark & Scala H/F job in Neuilly-sur-seine - ami consulting
jobs.recooty.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
🍏 Mission toujours d'actualité ! 🍏 Je recherche un Data Architect de min 4 ans xp pour un client leader dans le secteur des médias 📺 💡 L'objectif est d'optimiser le Temps de traitement et de rafraichissement des données. 🚨Lisez bien les compétences ! 🚨 📍 Localisation : IDF / 2 jours de télétravail par semaine 🗓 Démarrage : ASAP 🚨 Compétences mandatory : Optimiser l'utilisation de Azure Analysis Services (modèle Tabulaire) pour les rapports et les analyses. Expérience en gouvernance data Databricks (en particulier avec PySpark). - Azure Analysis Services (modèle Tabulaire). - SQL - Git et Azure DevOps pour la gestion des versions et l'intégration continue. On en parle en MP ? 👩🏻💻 Le saviez-vous ? Comet encourage le bouche-à-oreille 🗣️👂 Si vous souhaitez me recommander quelqu'un de votre réseau, la prime de parrainage est de 1000€ 💡 #Data #DataArchitect #SQL #Pyspark #Databricks #AzureAnalysisServices
Identifiez-vous pour afficher ou ajouter un commentaire
-
#HIRING #Lead_Data_Plateforme #Freelance Expérience : +5 ans ; Compétences techniques : ◾ Maitrise des technologies Data sur Azure. ◾ Maîtrise des langages de programmation Python et SQL. ◾ Expertise dans la conception et le développement de pipelines de données (ELT) et la manipulation des données. ◾ Connaissance approfondie des outils et des frameworks de Big Data tels que Hadoop, Spark, Kafka. ◾ Compétences en modélisation de données et en gestion de schémas. ◾ Maîtrise des principes d'optimisation des performances et des techniques de résolution de problèmes liés aux bases de données. Responsabilités : ◾ Concevoir les frameworks et développer les pipelines pour la collecte, le traitement et le stockage des données dans la Plateforme Data. ◾ Animer et piloter une équipe de Data Engineers. ◾ Coordonner les projets et répartir les tâches au sein de l'équipe. ◾ Développer les compétences et assurer le mentorat des membres de l'équipe. ◾ Établir des normes et des processus pour la collecte, le stockage, la transformation et la sécurisation des données. ◾ Assurer la qualité et la fiabilité des données en mettant en place des mécanismes de contrôle et de surveillance. ◾ Collaborer avec les parties prenantes (métiers, Data Scientists, Data Analysts, développeurs…) pour comprendre leurs besoins, fournir des solutions de données efficaces et soutenir les initiatives liées aux données. ◾ Participer à la veille technologique pour rester à jour sur les avancées dans le domaine du Big Data et de l'ingénierie des données. 📧 mouna.erraji@capfi-africa.com Omar Benabdeljelil Nora Berrady 🇲🇦
Identifiez-vous pour afficher ou ajouter un commentaire
-
Bonjour,Je cherche un consultant Data Engineer pour NANTES(confirmé ou sénior) Il collabore avec le reste de l’équipe Data avec qui il va définir les meilleures solutions d’analyses de données à mettre en place pour répondre aux besoins métiers, mais aussi avec l’équipe en charge de l’infrastructure Data avec qui il définira les solutions techniques idoines pour assurer les meilleures performances possibles. Il sait : * Expliquer le sens des informations exploitables en termes pertinents pour les métiers * Conceptualiser et développer autour d’une problématique métier * Communiquer les informations en soulignant la valeur des actions * Prendre des décisions techniques et les justifier auprès de son équipe Son travail est partie prenante de la stratégie de l’entreprise. La mission de Data Engineer consiste à : * Comprendre et modéliser les problématiques métier * Définir avec justesse le périmètre des données nécessaire à la solution technique * Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables * Créer des visualisations appropriées aux besoins Environnement technique : * PowerBI * JIRA/Confluence * Klaxoon * DataGalaxy * Stack technique de l’équipe o Plateforme MS Azure o Azure Data Factory o Databricks o GitHub o Développements en Python / SQL COMPÉTENCES INDISPENSABLES : * Connaissance de Git (exp 6 mois min) * Maîtrise de PowerBI et du langage DAX (exp 2 ans min) * Maîtrise du langage Python et du PySpark (exp. 2 ans min) * Expérience significative dans la gestion et la manipulation de données au sein d’une architecture complexe (minimum 1 an) * Maîtrise de SGBD et du SQL (exp 2 ans min) * Bonne connaissance de la plate-forme Azure (exp 1 an min) * Expérience dans le domaine IoT (accès, collecte, qualification et exploitation des données de capteurs) (exp 1 an min) COMPÉTENCES SOUHAITABLES : * Expérience dans le domaine de la maintenance prédictive * Connaissance de l’outil DataGalaxy * Connaissance de l’outil JIRA/confluence * Maîtrise écrite/orale de l’anglais * Expérience en environnement DataBricks * Connaissance des types de modélisation orientées Data (Modèle en étoile, ...) Les qualités suivantes sont indispensables : * Force de proposition * Esprit critique * Rigueur * Curiosité intellectuelle * Sensibilité métier * Esprit analytique et de synthèse * Sens de l’organisation Date de démarrage : 17/06 - 6 mois renouvelable 6 mois (soit 1 an de mission) 3 jours par semaine sur site : lundi/mardi/jeudi Je reste à votre disposition pour tout compléments d'informations.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Bonjour,Je cherche un consultant Data Engineer pour NANTES(confirmé ou sénior) Il collabore avec le reste de l’équipe Data avec qui il va définir les meilleures solutions d’analyses de données à mettre en place pour répondre aux besoins métiers, mais aussi avec l’équipe en charge de l’infrastructure Data avec qui il définira les solutions techniques idoines pour assurer les meilleures performances possibles. Il sait : * Expliquer le sens des informations exploitables en termes pertinents pour les métiers * Conceptualiser et développer autour d’une problématique métier * Communiquer les informations en soulignant la valeur des actions * Prendre des décisions techniques et les justifier auprès de son équipe Son travail est partie prenante de la stratégie de l’entreprise. La mission de Data Engineer consiste à : * Comprendre et modéliser les problématiques métier * Définir avec justesse le périmètre des données nécessaire à la solution technique * Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables * Créer des visualisations appropriées aux besoins Environnement technique : * PowerBI * JIRA/Confluence * Klaxoon * DataGalaxy * Stack technique de l’équipe o Plateforme MS Azure o Azure Data Factory o Databricks o GitHub o Développements en Python / SQL COMPÉTENCES INDISPENSABLES : * Connaissance de Git (exp 6 mois min) * Maîtrise de PowerBI et du langage DAX (exp 2 ans min) * Maîtrise du langage Python et du PySpark (exp. 2 ans min) * Expérience significative dans la gestion et la manipulation de données au sein d’une architecture complexe (minimum 1 an) * Maîtrise de SGBD et du SQL (exp 2 ans min) * Bonne connaissance de la plate-forme Azure (exp 1 an min) * Expérience dans le domaine IoT (accès, collecte, qualification et exploitation des données de capteurs) (exp 1 an min) COMPÉTENCES SOUHAITABLES : * Expérience dans le domaine de la maintenance prédictive * Connaissance de l’outil DataGalaxy * Connaissance de l’outil JIRA/confluence * Maîtrise écrite/orale de l’anglais * Expérience en environnement DataBricks * Connaissance des types de modélisation orientées Data (Modèle en étoile, ...) Les qualités suivantes sont indispensables : * Force de proposition * Esprit critique * Rigueur * Curiosité intellectuelle * Sensibilité métier * Esprit analytique et de synthèse * Sens de l’organisation Date de démarrage : 17/06 - 6 mois renouvelable 6 mois (soit 1 an de mission) 3 jours par semaine sur site : lundi/mardi/jeudi Je reste à votre disposition pour tout compléments d'informations.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Bonjour, 😊 Pour notre partenaire dans le secteur public, je un Ingénieur Data avec 3 ans d'expérience. Voici le descriptif de l’offre : Le data engineer est responsable de l’accès qualitatif aux sources de données. Il s’assure la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d’en faciliter l’exploitation par les équipes (Data Analysts et Data Scientists). Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et de son traitement. Il assure la supervision et l’intégration des données de diverse nature en provenance des différentes sources et vérifie la qualité des données qui entrent dans l’entrepôt de données ou le Data Lake. Pour remplir ces missions, le data engineer devra travailler en étroite collaboration avec le chef de projet Data, le responsable de l’équipe atelier, les autres membres de l’équipe et autres parties prenantes métiers Les prestations attendues sont les suivantes : • Maintenir les backlogs applicatif des solutions sur lesquelles il sera amené à travailler • Définir avec les parties prenantes le planning des versions à venir • Concevoir, modéliser, développer les programmes en respectant les besoins, les délais et les différentes normes de qualité • Prendre en charge la réalisation des tests unitaires • Participer au déploiement des réalisations en respectant les procédures internes • Prendre en charge les tickets des utilisateurs en lien avec les applications gérées • Assurer le maintien en condition opérationnelle des applications • Gérer la documentation technique • Communiquer sur l’avancement des réalisations auprès des personnes concernées (responsable de l’équipe atelier, chef de projet data et autres parties prenantes) Les livrables attendues sont les suivants : • Mise à jour des user stories • Rédaction des documents de spécifications techniques • Réalisation des composants logiciels (sources, exécutables, scripts, pipelines, modèles de données, etc) • Plans de test et résultats des tests • Documentations (dossier d’exploitation, manuels utilisateurs, etc) • Rapport d’activité • Tout autre livrable jugé nécessaire à l’atteinte du résultat Prérequis : 📌 Disposer d'au moins 3 années d'expérience sur Azure Data Platform (Azure Data Factory, Azure Data Lake, Azure Analysis Services, Azure SQL Database, Azure Function, Keyvault…). Posséder une solide maîtrise des concepts de base d'Azure. Avoir une solide compétence en SQL. Posséder une solide compréhension de l'ETL ou l'ELT. Disposer d'une expérience significative sur Power BI. Maîtriser Azure DevOps (Board, Repos et CI/CD). Maîtriser le langage DAX. Idéalement, posséder la Certification DP-203 (ou DP-200). ✍ Pour toutes demandes d'informations complémentaires me contacter en MP ou à : abdelnour.bouchelkia@adjas.com Merci à vous et belle journée 😉
Identifiez-vous pour afficher ou ajouter un commentaire
-
🧑🏭 Le travail d'un data engineer ne se résume pas simplement à créer des pipelines de données et à les planifier avec Airflow. 👉 Je vois de nombreux projets de data engineering se concentrer uniquement sur la réalisation de pipelines. Cependant, si l'on ne comprend pas d'où proviennent les données, le besoin business, et comment les mettre à disposition de manière optimale pour les utilisateurs, quel est l'intérêt ? Les pipelines de données sont un aspect important du métier, certes, mais ce n'est pas le seul. Techniquement un data engineer peut faire bien plus que simplement créer des pipelines. Il existe d'autres défis, tels que : - Comment donner accès à la donnée (API, OLAP, OLTP) ? - Comment bien représenter la donnée (data modeling) ? - Comment la stocker de la meilleure manière (data warehouse, BDD) ? - Comment gérer la donnée (data management et data gouvernance) ? - Comment gérer l’infrastructure permettant de manipuler la donnée (cloud) ? Et encore d'autres…
Identifiez-vous pour afficher ou ajouter un commentaire
-
Bonjour,Je cherche un consultant Data Engineer pour NANTES(confirmé ou sénior) Il collabore avec le reste de l’équipe Data avec qui il va définir les meilleures solutions d’analyses de données à mettre en place pour répondre aux besoins métiers, mais aussi avec l’équipe en charge de l’infrastructure Data avec qui il définira les solutions techniques idoines pour assurer les meilleures performances possibles. Il sait : * Expliquer le sens des informations exploitables en termes pertinents pour les métiers * Conceptualiser et développer autour d’une problématique métier * Communiquer les informations en soulignant la valeur des actions * Prendre des décisions techniques et les justifier auprès de son équipe Son travail est partie prenante de la stratégie de l’entreprise. La mission de Data Engineer consiste à : * Comprendre et modéliser les problématiques métier * Définir avec justesse le périmètre des données nécessaire à la solution technique * Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables * Créer des visualisations appropriées aux besoins Environnement technique : * PowerBI * JIRA/Confluence * Klaxoon * DataGalaxy * Stack technique de l’équipe o Plateforme MS Azure o Azure Data Factory o Databricks o GitHub o Développements en Python / SQL COMPÉTENCES INDISPENSABLES : * Connaissance de Git (exp 6 mois min) * Maîtrise de PowerBI et du langage DAX (exp 2 ans min) * Maîtrise du langage Python et du PySpark (exp. 2 ans min) * Expérience significative dans la gestion et la manipulation de données au sein d’une architecture complexe (minimum 1 an) * Maîtrise de SGBD et du SQL (exp 2 ans min) * Bonne connaissance de la plate-forme Azure (exp 1 an min) * Expérience dans le domaine IoT (accès, collecte, qualification et exploitation des données de capteurs) (exp 1 an min) COMPÉTENCES SOUHAITABLES : * Expérience dans le domaine de la maintenance prédictive * Connaissance de l’outil DataGalaxy * Connaissance de l’outil JIRA/confluence * Maîtrise écrite/orale de l’anglais * Expérience en environnement DataBricks * Connaissance des types de modélisation orientées Data (Modèle en étoile, ...) Les qualités suivantes sont indispensables : * Force de proposition * Esprit critique * Rigueur * Curiosité intellectuelle * Sensibilité métier * Esprit analytique et de synthèse * Sens de l’organisation Date de démarrage : 17/06 - 6 mois renouvelable 6 mois (soit 1 an de mission) 3 jours par semaine sur site : lundi/mardi/jeudi Je reste à votre disposition pour tout compléments d'informations.
Identifiez-vous pour afficher ou ajouter un commentaire
27 841 abonnés