Track This Job
Add this job to your tracking list to:
- Monitor application status and updates
- Change status (Applied, Interview, Offer, etc.)
- Add personal notes and comments
- Set reminders for follow-ups
- Track your entire application journey
Save This Job
Add this job to your saved collection to:
- Access easily from your saved jobs dashboard
- Review job details later without searching again
- Compare with other saved opportunities
- Keep a collection of interesting positions
- Receive notifications about saved jobs before they expire
AI-Powered Job Summary
Get a concise overview of key job requirements, responsibilities, and qualifications in seconds.
Pro Tip: Use this feature to quickly decide if a job matches your skills before reading the full description.
- CDI
- Luxembourg
- Publié il y a 5 mois
Mission
- Concevoir, développer et maintenir des pipelines de traitement de données efficaces et évolutifs.
- Assurer l’intégration, la transformation et la livraison des données à partir de différentes sources internes et externes.
- Travailler en étroite collaboration avec les data scientists, les analystes et les équipes produit pour comprendre les besoins métier.
- Participer à la mise en place d’architectures data modernes (Data Lake, Data Warehouse, etc.).
- Optimiser la performance des traitements de données et veiller à leur qualité.
- Mettre en place des outils de surveillance, de logging et de documentation des flux de données.
- Garantir la conformité aux politiques de sécurité, de confidentialité et de gouvernance des données.
- Contribuer à l’amélioration continue des pratiques de développement et à la veille technologique.
- Diplôme Bac+5 en informatique, data engineering, ou discipline connexe.
- Expérience confirmée (3 ans minimum) en ingénierie de la donnée dans un environnement de production.
- Maîtrise de Python ou Scala, et des frameworks de traitement distribué comme Apache Spark.
- Solide expérience avec des plateformes cloud (AWS, GCP ou Azure), en particulier les services data (BigQuery, Redshift, Snowflake, etc.).
- Connaissance des outils de versioning, CI/CD et conteneurisation (Git, Docker, Kubernetes).
- Bonnes notions de bases de données SQL et NoSQL.
- Sens de l’analyse, esprit d’équipe et orientation solution.
- Expérience en orchestration de workflows (Airflow, Luigi…).
- Connaissance des principes de DataOps ou de gouvernance de données.
- Sensibilité aux enjeux liés à la qualité des données (Data Quality, lineage…).
- Une entreprise en pleine croissance axée sur l’innovation et la performance.
- Des projets à fort impact et une culture orientée résultats.
- Un cadre collaboratif, challengeant et bienveillant.
- Des opportunités concrètes de développement de carrière et de montée en compétences.
Nom et Prénom
Adresse Email
Mobile
Niveau d étude
Bac Bac +1 Bac +2 Bac +3 Bac +4 Bac +5 Bac + X
Années d’Expérience
0 +1 +2 +3 +4 +5 +6 +7 +8 +9 + 10
Préavis
Disponible immédiatement -1 mois 1 mois 2 mois +2 mois
Message
Upload CV
Téléverser votre CV ou tout autre document relatif. Taille max: 2 MB.
Key Skills
Ranked by relevanceReady to apply?
Join RED TIC and take your career to the next level!
Application takes less than 5 minutes