Track This Job
Add this job to your tracking list to:
- Monitor application status and updates
- Change status (Applied, Interview, Offer, etc.)
- Add personal notes and comments
- Set reminders for follow-ups
- Track your entire application journey
Save This Job
Add this job to your saved collection to:
- Access easily from your saved jobs dashboard
- Review job details later without searching again
- Compare with other saved opportunities
- Keep a collection of interesting positions
- Receive notifications about saved jobs before they expire
AI-Powered Job Summary
Get a concise overview of key job requirements, responsibilities, and qualifications in seconds.
Pro Tip: Use this feature to quickly decide if a job matches your skills before reading the full description.
- CDD
- Luxembourg
- Publié il y a 8 mois
Mission
- Concevoir et développer des solutions de traitement de données à grande échelle (ETL, pipelines de données, etc.).
- Mettre en place et optimiser des architectures Big Data adaptées aux besoins de l’entreprise.
- Analyser, traiter et transformer des données provenant de sources multiples et hétérogènes.
- Collaborer avec les équipes métiers pour définir les besoins en matière de données et garantir leur qualité et leur intégrité.
- Travailler sur l’intégration de données provenant de systèmes variés (bases de données, API, fichiers, etc.).
- Concevoir et implémenter des modèles de données évolutifs et performants.
- Mettre en place des solutions de gestion des données (stockage, sécurité, gouvernance).
- Participer à la définition des stratégies de gestion et d’archivage des données.
- Garantir la qualité des données tout au long du cycle de vie des projets (tests, audits, validation).
- Assurer le maintien, la mise à jour et l’évolution des outils de data processing.
- Diplôme en informatique, data science, ou équivalent.
- Expérience significative (minimum 5 ans) en gestion de données, architecture et développement de solutions Big Data.
- Maîtrise des outils et technologies de traitement de données (Hadoop, Spark, Kafka, etc.).
- Expertise en bases de données relationnelles (SQL) et NoSQL (MongoDB, Cassandra, etc.).
- Solide expérience en développement et programmation (Python, Java, Scala, etc.).
- Bonne connaissance des outils ETL (Talend, Apache Nifi, etc.) et des environnements cloud (AWS, Azure, GCP).
- Compétences en analyse de données, data wrangling, et visualisation de données (Power BI, Tableau, etc.).
- Connaissance approfondie des principes de gouvernance des données, de sécurité et de confidentialité.
- Capacité à travailler en équipe et à communiquer efficacement avec des profils techniques et métiers.
- Esprit d’analyse, capacité à résoudre des problèmes complexes et à innover.
- Certifications en Data Engineering, Data Science ou Cloud (AWS Certified Data Analytics, Google Professional Data Engineer, etc.).
- Expérience avec des outils de containerisation (Docker, Kubernetes).
- Connaissance des méthodologies Agile/Scrum et des outils de gestion de projets (Jira, Confluence).
- Expérience en machine learning et en intégration de modèles dans des pipelines de données.
- Familiarité avec les outils de monitoring et de performance des données.
- Un environnement de travail stimulant avec des projets à fort impact.
- Une équipe collaborative et passionnée par l’innovation technologique.
- Des opportunités de développement personnel et professionnel dans un secteur en pleine évolution.
- Des projets diversifiés utilisant les dernières technologies dans le domaine de la data.
Nom et Prénom
Adresse Email
Mobile
Niveau d étude
Bac Bac +1 Bac +2 Bac +3 Bac +4 Bac +5 Bac + X
Années d’Expérience
0 +1 +2 +3 +4 +5 +6 +7 +8 +9 + 10
Préavis
Disponible immédiatement -1 mois 1 mois 2 mois +2 mois
Message
Upload CV
Téléverser votre CV ou tout autre document relatif. Taille max: 2 MB.
Key Skills
Ranked by relevanceReady to apply?
Join RED TIC and take your career to the next level!
Application takes less than 5 minutes