Track This Job
Add this job to your tracking list to:
- Monitor application status and updates
- Change status (Applied, Interview, Offer, etc.)
- Add personal notes and comments
- Set reminders for follow-ups
- Track your entire application journey
Save This Job
Add this job to your saved collection to:
- Access easily from your saved jobs dashboard
- Review job details later without searching again
- Compare with other saved opportunities
- Keep a collection of interesting positions
- Receive notifications about saved jobs before they expire
AI-Powered Job Summary
Get a concise overview of key job requirements, responsibilities, and qualifications in seconds.
Pro Tip: Use this feature to quickly decide if a job matches your skills before reading the full description.
- Client Final / Santé
- Grand Groupe international
- CDI – Paris
Vous rejoignez une équipe IT & Digital de plus de 200 personnes et participez ainsi au programme de transformation digitale du groupe.
Missions
En tant que DataOps, vous jouerez un rôle clé au sein de l’équipe IT pour garantir la fiabilité, la performance et la scalabilité des systèmes en lien avec les projets Big Data & IA.
À Ce Titre, Vos Principales Responsabilités Sont
- Assurer l’automatisation des pipelines de développement et de déploiement (CI/CD) pour des projets Big Data.
- Collaborer avec les équipes Data, les architectes IT et les équipes Cloud pour concevoir, déployer et maintenir des plateformes cloud évolutives, sécurisées et performantes adaptées aux besoins des projets Big Data.
- Gérer l’infrastructure Big Data sur des solutions telles que Hadoop, Spark, Kafka, et leur intégration avec des environnements cloud (GCP, AWS, Azure).
- Travailler en étroite collaboration avec les équipes Data Engineering et Data Science pour optimiser le cycle de vie des données, de leur collecte à leur analyse.
- Développer et maintenir des outils d'automatisation pour les environnements Big Data, en utilisant des technologies telles que Docker, Kubernetes, Terraform, et Helm.
- Implémenter des pratiques de surveillance et de gestion des performances des environnements Big Data en production.
- Participer activement à la veille technologique et aux sessions de partage en équipe pour explorer de nouvelles solutions dans l’écosystème Big Data et DevOps.
Profil
Diplôme d’ingénieur ou universitaire (Bac+5) avec au moins deux ans d’expérience dans un rôle équivalent ou similaire.
Compétences Techniques
- Maîtrise de Google Cloud Platform (GCP) pour les projets Data.
- Connaissance des pratiques DevOps : Infrastructure as Code, CI/CD, monitoring.
- Expérience dans la gestion de grands volumes de données et maîtrise de Python.
- Utilisation de technologies telles que Docker, Kubernetes, Gitlab/Github, Terraform.
- Connaissance des environnements cloud et des architectures modulaires.
- Esprit d’équipe, rigueur, curiosité et sens du service.
- Capacité à communiquer avec des profils techniques et non techniques.
- Adepte de l'amélioration continue et force de proposition.
- Grand groupe international tourné vers l'Innovation et la recherche
- Rôle à fort impact
- Stack technologique à la pointe
- Package de rémunération et avantages attractifs
Key Skills
Ranked by relevanceReady to apply?
Join Kaino and take your career to the next level!
Application takes less than 5 minutes

