Toujours un plaisir d’aller à la rencontre des étudiants lors des journées organisées par le département informatique d’enseignement de l’Université de Montpellier. Un très grand merci aux organisateurs et aux étudiants venus nombreux ! Il est encore temps de nous envoyer vos candidatures, nous recherchons un stagiaire data/IA (lac de données basé sur MongoDB, PDI et Kafka) et un stagiaire en développement web (ReactJS, MQTT, API REST, Micro-services, NodeJS, .Net Core). Plus d’info sur https://lnkd.in/gRbmDidR ! Département Informatique Faculté des Sciences Université de Montpellier, Sandrine Schloupt, Jason Maarkech #universitemontpellier #jobdating #ia #data #developpementweb #it #recrutement #smartcity #smartbuilding #villedurable #nouveauxusages #innovation #energie #docker #kubernetes #ReactJS #NodeJS #microservices #Dotnetcore #agile #mongoDB #PDI #kafka #bigdata #maintenancepredictive #transitionenergetique #MQTT #microservices
Post de IDEALYS
Plus de posts pertinents
-
J’encourage les data scientists Python à développer leurs compétences en Dév. Travailler sur un notebook n'est pas suffisant; il est très important de maîtriser le développement d'outils, ne serait-ce que le backend d’une App web simple. Je recommande aux data scientists pro Python de commencer par Flask et ensuite apprendre Django, 2 frameworks Python largement utilisés pour industrialiser des solutions en France, notamment dans les grandes boites. Un data scientist complet doit être capable de mener un projet d'analyse ou de ML, de l'étude des besoins à la livraison finale au client. Tu es censé être capable de jongler entre l'analyse et le dév. Les équipes sont souvent mixtes, comprenant des dev et des data scientist, et gèrent plusieurs projets. Les besoins évoluent, donc on aura sûrement besoin de tes skills pour le dév d'une feature, la gestion de modèles, la gestion des dags, etc., en faisant du développement. Tu dois être prêt à intervenir à ce moment pour aider l’équipe et bien faire ton taf. Pour ceux qui veulent des ressources gratuites pour apprendre Flask et Django, inscrivez-vous à ma newsletter sur mon profil. Je collecterai les emails des inscrits au cours des prochaines 24 heures pour partager ces ressources. Bon début de semaine !
Identifiez-vous pour afficher ou ajouter un commentaire
-
🐍 Python : l'allié de vos projets en Data Science ! 🐍 Chez IT Link, nous savons que les technologies connectées nécessitent des outils puissants et polyvalents. C’est pourquoi notre consultant Matteo, Data Scientist chez Engie Laborelec, s’appuie quotidiennement sur Python pour transformer des données en solutions concrètes et impactantes. 🎯Grâce à Python, Matteo peut : • Manipuler des volumes massifs de données; • Créer des modèles prédictifs pour anticiper la consommation énergétique; • Automatiser des processus pour une efficacité accrue; • Contribuer à la transition énergétique en rendant les systèmes plus durables et intelligents. Sa maîtrise de Python lui permet d’adapter ses solutions aux besoins spécifiques d’Engie Laborelec, illustrant la force de ce langage pour répondre aux défis d’aujourd’hui et de demain. 🌍💡 Découvre toi aussi la polyvalence et l'efficacité du Python sur la partie blog de notre site talent : https://lnkd.in/erYEsNPw Alexis Loslever Audrey Bragard Noemi Signorelli Giuseppe Terranova Layla R. Jordan C.
Identifiez-vous pour afficher ou ajouter un commentaire
-
✨ Explorer les avantages de Java dans le domaine de la Data Science ✨ Dans l'univers en constante évolution de la Data Science, le choix du langage de programmation est crucial. Java, avec sa robustesse et sa fiabilité, offre des avantages significatifs pour les professionnels de la donnée. Voici pourquoi Java se distingue comme un choix judicieux pour les projets de Data Science. 🌐 🔍 Performance et Vitesse: Java, conçu pour la performance, assure une exécution rapide des algorithmes de traitement de données, ce qui est vital pour analyser d'immenses ensembles de données. 🔗 Richesse des Bibliothèques: Des bibliothèques comme Weka, Deeplearning4j, et MOA fournissent aux data scientists des outils puissants pour le machine learning, le deep learning, et l'analyse de données, le tout accessible dans l'écosystème Java. 🔐 Sécurité: Dans le domaine de la Data Science, où la manipulation de données sensibles est courante, la sécurité est primordiale. Java, avec son modèle de sécurité intégré, offre une plateforme sécurisée pour le développement d'applications de Data Science. ☁️ Scalabilité: Java facilite la scalabilité des applications de Data Science, permettant aux entreprises de gérer efficacement des volumes croissants de données. 🌍 Portabilité: Le mantra "Écrivez une fois, exécutez partout" de Java garantit que les applications développées sont portables sur différents systèmes d'exploitation, ce qui est un atout majeur pour les équipes de Data Science travaillant dans des environnements hétérogènes. L'adoption de Java dans les projets de Data Science ouvre la porte à des solutions innovantes, efficaces et sécurisées, répondant aux défis complexes de l'analyse des données. 🚀 Pour ceux qui explorent les intersections passionnantes de Java et de la Data Science, je suis ouvert à des discussions enrichissantes et à des collaborations potentielles. Partageons nos connaissances et avançons ensemble dans cette aventure fascinante de la donnée. #Java #DataScience #MachineLearning #BigData #Technologie #Innovation 📍 Disponibilité pour CDI : Immédiate, Nice et ses environs 📧 Email : Cedriccubatdev@gmail.com 📞 Téléphone : 06-37-51-62-94
Identifiez-vous pour afficher ou ajouter un commentaire
-
Depuis mes débuts en manipulation de bases de données lors de mon BTS, j'ai toujours trouvé crucial de comprendre l'origine des données pour les traiter et les manipuler efficacement. Au fil du temps, j'ai appris à utiliser diverses sources de données, que ce soit des SGBD ou des fichiers, et à me familiariser avec différents contextes et langages comme Java, C#, et plus récemment Node.js. Mes diverses expériences, tant professionnelles que personnelles, ont renforcé ce sentiment. J'ai travaillé avec divers SGBD comme MongoDB et Redis et mené des projets annexes qui ont aiguisé ma curiosité pour la multitude de données et de techniques disponibles. Cette curiosité n'a cessé de croître à mesure que j'étais exposé à de nouvelles informations. Je tiens à souligner, bien que ce ne soit pas une idée nouvelle, l'importance de la collaboration avec tous les développeurs d'une équipe. En structurant de manière optimale les données, qu'elles soient destinées au front-end ou au back-end, elles deviennent plus facilement compréhensibles et exploitables. Cette approche facilite non seulement le développement, mais aussi la clarté des données.
Identifiez-vous pour afficher ou ajouter un commentaire
-
10 freelances tech disponibles tout de suite ✅ → Mounir LAHLOU KASSI → Ayoub BENCHAMA → Eric Schafer → Aurélie Mutschler → Mohammed Tahiri-amine → Constantin Lungu → Sarra T. → Guillaume V. → Oussama NEJJAR → Ahmed Hermi Les critères de cette recherche ⤵️ Métier : Data Engineer Technos : Apache Spark, Python, SQL Séniorité : Sénior TJM : 500-800€ Vous pouvez les retrouver sur le moteur de recherche Pylote 😍 Ce moteur met en avant +16 000 freelances tech, qui maintiennent leur profil à jour grâce à l'extension Pylote. Plus d'infos en commentaire ⤵️
Identifiez-vous pour afficher ou ajouter un commentaire
-
Vous cherchez des ressources fiables pour approfondir vos connaissances en programmation et data science ? Voici 4 chaînes YouTube à ne pas manquer pour vous aider à progresser 📈 : ➤ 𝗧𝗲𝗰𝗵𝗧𝗙𝗤 : Développez vos compétences en SQL et Python avec des tutoriels détaillés et faciles à suivre. Parfait pour plonger dans la data science. 🚀 ➤ 𝗧𝗿𝗮𝘃𝗲𝗿𝘀𝘆 𝗠𝗲𝗱𝗶𝗮 : Améliorez vos techniques en développement web et mobile grâce à des projets concrets et pratiques.💻 ➤ 𝗧𝗵𝗲 𝗡𝗲𝘁 𝗡𝗶𝗻𝗷𝗮 : Apprenez des technologies web modernes avec des tutoriels bien structurés, du JavaScript au développement full stack.🎓 ➤ 𝗞𝘂𝗱𝘃𝗲𝗻𝗸𝗮𝘁 : Des cours complets sur .NET, SQL Server, et Angular pour une maîtrise étape par étape.🛠️ 💬 Besoin d'autres ressources pour progresser rapidement ? Likez ce post et partagez-le avec votre réseau !👍 #Programmation #DéveloppementWeb #DataScience #ChaînesYoutube #CompétencesTech #ApprentissageEnLigne
Identifiez-vous pour afficher ou ajouter un commentaire
-
👋 Bonjour à tous, Je suis Gérard Yahouedehou, développeur spécialisé en opérations techniques et passionné par le développement Python 🐍 et ses dérivés, notamment le développement web avec Django, les applications desktop, etc. Cela fait un bon moment que je me consacre à relever des défis techniques grâce à ces technologies, et j'ai eu l'opportunité de travailler sur des projets enrichissants. 💡 Ce qui me motive, c'est la volonté d'apprendre constamment, de résoudre des problématiques complexes et d'améliorer les processus existants. J'apprécie particulièrement les échanges avec d'autres professionnels, car cela me permet d'élargir mes perspectives et d'enrichir mes compétences. 🤝 Je suis ouvert à échanger avec des passionnés ou non, à découvrir de nouvelles opportunités, et à collaborer sur des projets intéressants. Un grand merci à mes collègues avec qui j'ai la chance de collaborer : 🎓 Andil Adebiyi, mon supérieur et mentor, dont les conseils m'inspirent chaque jour. ✨ Roy Aballo, un as de la data engineering, qui traite des données lourdes avec une expertise incroyable. 📊 Elodie YEDOMONHAN et Mahoutondji Gracieux HOUNNA, deux data analysts qui facilitent la prise de décision grâce à leur expertise. 📈 Ramdone Sounkere, notre développeur backend, qui s'assure que tout fonctionne parfaitement en coulisses. 🔧 Aziz Vorrez, notre développeur de solutions numériques de pointe, qui innove constamment pour améliorer nos processus. 🚀 Et à tous ceux que je n'ai pas pu citer. 👉 N'hésitez pas à me contacter pour discuter de Python, d'opérations techniques ou de projets collaboratifs ! #Développement #Python #Django #Tech #OpérationsTechniques #Collaboration
Identifiez-vous pour afficher ou ajouter un commentaire
-
De 2012 à 2015 je m’étais dit que tous mes prochains projets backend seraient en Scala full FP. J’étais fan de la complexité du langage, du level d’intelligence requis pour maîtriser ses profondeurs. Je l’ai pratiqué 4 ans intensément avec l’équivalent de 1500 pages de concepts FP dans la tête. C’est un langage challengeant votre degré d’intelligence. Puis j’ai vite compris qu’un dilemme s’imposait lorsque WealCome n’était plus une appli (startup) mais devenue une microagence unipersonnelle : Pour mes clients, vais-je choisir le meilleur langage à mes yeux ou bien le meilleur langage pour le recrutement ? La passion ou la raison ? Du coup j’ai mis en 2016 Scala de côté. 4 ans intenses de FP dans ma propre startup, à un niveau qui effraierait plus d’un. Je suis revenu à des langages « populaires ». Comme Twitter l’a fait, comme LinkedIn l’a fait. Sont passés de Scala à Java pour pas mal de leurs composants. Parce que le business et donc la faculté à recruter aisément est prioritaire face au charme d’un langage. Depuis je code les backends de mes clients en Java ou C# ou Node ou Typescript ou PHP principalement. #dev #choix #business #langage #scala #réalité #startup #recrutement #jobs
Identifiez-vous pour afficher ou ajouter un commentaire
-
Data engineering en Scala ou en Python. Pas juste un choix de langage. 🤔 J'ai l'impression qu'il s'agit de deux profils complètement différents. C'est deux métier différents même. Les offres d'emploi n'ont en général pas grand chose avoir. Python: - Plus orienté analytics (mais pas toujours) 📊 - DBT - Airflow - Spark - SQL - Très cloud ☁️ Scala: - Plus orienté software 👨💻 - Spark - Stack big data open source (Kafka, Flink, Spark, Iceberg, HBase, HDFS, etc...) ☕ - Cloud oui mais pas mal d'environnement On-Premise aussi ! Hello Hadoop 🐘 - Développement d'API 🌐 - Ingestion streaming - Des plus gros volume de données Évidement ça dépend. Mais dans l'ensemble, ça me semble assez bien représenter ce que j'ai pu voir dans le monde professionnel et dans les offres d'emploi. Si le Scala et la programmation fonctionnelle vous intéresse (la FP est clairement applicable en Python!), vous allez aimer mes prochains posts sur le sujet ! #dataengineering #scala #python
Identifiez-vous pour afficher ou ajouter un commentaire
-
Dans notre formation à l’ENSIAS, nous avons eu l’occasion de suivre un module appelé "Python pour BI&A", qui porte sur le langage Python et les bibliothèques telles que NumPy, Pandas et Bokeh. Explorons ces bibliothèques pour comprendre pourquoi elles sont importantes dans ce contexte : 1. NumPy (Numerical Python) : a pour objectif de fournir un support pour des tableaux et des matrices de grandes dimensions, ainsi que des fonctions mathématiques de haut niveau pour opérer sur ces tableaux de manière efficace. Il est utilisé pour des calculs scientifiques et techniques, comme l'algèbre linéaire, les statistiques, la transformation de Fourier, et les opérations élémentaires sur des tableaux multi-dimensionnels. 2. Pandas a pour objectif d’offrir des structures de données et des outils d'analyse de données flexibles et puissants pour manipuler et analyser des données tabulaires (données en séries chronologiques et autres formes de données structurées). Il est utilisé pour la manipulation, le nettoyage et l'analyse de données. Il permet de lire et écrire des données dans divers formats (CSV, Excel, SQL, etc.), et de réaliser des opérations complexes comme le groupement, la fusion et la transformation des données. 3. Bokeh a pour objectif de fournir une bibliothèque de visualisation interactive pour le web, permettant de créer des graphiques riches et interactifs. Il est utilisé pour créer des visualisations interactives et dynamiques directement dans les navigateurs web. Il permet de construire des graphiques complexes avec des interactions comme le zoom, le pan, et les annotations, et peut être intégré avec d'autres bibliothèques Python comme Pandas et NumPy pour visualiser des données de manière intuitive. Dans ce module, nous avons réalisé un projet au lieu d’un examen, et d’ailleurs, c’est la meilleure méthode pour l’évaluation. Cela nous permet de créer une application en manipulant Bokeh, en binôme, pour maîtriser le travail en groupe, et en partageant les fichiers entre nous via GitHub. Avec mon binôme Anouar Tayi, nous avons travaillé sur un fichier Excel contenant des données sur les unités d’habitat réparties selon les régions et les catégories. Nous avons nettoyé et organisé les données dans d’autres fichiers en utilisant Pandas. Ensuite, nous avons défini des fonctions pour créer une application Bokeh. C’était notre première application Bokeh simple, amusante et interactive. Nous avons appris beaucoup de choses. Bien que l’application soit simple, elle a été amusante à réaliser. Les données disponibles dans ce fichier Excel sont limitées, ce qui restreint la richesse des visualisations que nous avons pu produire, mais nous avons fait de notre mieux.
Identifiez-vous pour afficher ou ajouter un commentaire
1 302 abonnés
Merci IDEALYS, de votre implication auprès de nos étudiants et de votre présence à ces rencontres ! 😊👏🏾