Track This Job
Add this job to your tracking list to:
- Monitor application status and updates
- Change status (Applied, Interview, Offer, etc.)
- Add personal notes and comments
- Set reminders for follow-ups
- Track your entire application journey
Save This Job
Add this job to your saved collection to:
- Access easily from your saved jobs dashboard
- Review job details later without searching again
- Compare with other saved opportunities
- Keep a collection of interesting positions
- Receive notifications about saved jobs before they expire
AI-Powered Job Summary
Get a concise overview of key job requirements, responsibilities, and qualifications in seconds.
Pro Tip: Use this feature to quickly decide if a job matches your skills before reading the full description.
Rejoindre Expleo Suisse, c’est travailler au sein d’une communauté de 19 000 collaborateurs dans 30 pays :
- Un accompagnement technique et humain sur chaque projet ainsi qu’une gestion de carrière efficace
- Des formations pour développer vos compétences professionnelles
- La participation à des événements dédiés
- L’intégration dans une équipe dynamique
Responsibilities
Faisant partie de l’équipe Data Engineering, vous jouerez un rôle essentiel dans la supervision de la maintenance et de l’optimisation des pipelines de données au sein de la plateforme Databricks. Vos responsabilités principales consisteront à répondre aux besoins métier en évolution, améliorer les processus ETL et garantir la fluidité du flux de données énergétiques à travers nos systèmes.
Responsabilités principales:1. Concevoir, développer et maintenir des flux de données robustes:
- Créer et maintenir des workflows de données évolutifs sur Databricks, intégrés à AWS.
- Collaborer étroitement avec les équipes cloud et frontend afin d’unifier les sources de données et d’établir un modèle de données cohérent.
- Assurer la disponibilité, l’intégrité et la performance des pipelines de données.
- Surveiller proactivement les workflows pour maintenir un haut niveau de qualité des données.
- Travailler avec des équipes pluridisciplinaires pour identifier des opportunités d’améliorations et d’analyses basées sur les données.
- Analyser les performances de la plateforme, identifier les goulets d’étranglement et recommander des améliorations.
- Rédiger et maintenir une documentation technique complète pour les implémentations ETL.
- Se tenir informé des dernières fonctionnalités et bonnes pratiques Databricks/Spark, et contribuer à l’amélioration continue de nos capacités de gestion de données.
- Licence en informatique, technologies de l'information ou domaine équivalent.
Compétences techniques :
- Solide expertise en PySpark.
- Maîtrise du SQL et des langages de script (par ex. Python).
- Excellentes compétences analytiques et de résolution de problèmes.
- Très bonnes capacités de communication en français (oral et écrit) et bonne maîtrise de l’anglais.
Compétences additionnelles appréciées :
- Connaissance des réglementations et exigences de conformité spécifiques au secteur.
- Une première expérience dans le domaine du trading énergétique est un atout.
- Capacité à travailler efficacement dans un environnement dynamique et collaboratif.
- Souci du détail et bonnes compétences en priorisation des tâches.
- Grande capacité d’adaptation et volonté d’apprendre de nouvelles technologies et outils.
- Forte orientation client.
Minimum 5 ans d’expérience en tant que Data Engineer, avec une expérience avérée dans la mise en place de pipelines sur Databricks.
Une expérience dans des environnements cloud (AWS ou Azure) est un plus.
La maîtrise de l’anglais est requise, et un français avancé est obligatoire.
Key Skills
Ranked by relevanceReady to apply?
Join Expleo Group and take your career to the next level!
Application takes less than 5 minutes

