Track This Job
Add this job to your tracking list to:
- Monitor application status and updates
- Change status (Applied, Interview, Offer, etc.)
- Add personal notes and comments
- Set reminders for follow-ups
- Track your entire application journey
Save This Job
Add this job to your saved collection to:
- Access easily from your saved jobs dashboard
- Review job details later without searching again
- Compare with other saved opportunities
- Keep a collection of interesting positions
- Receive notifications about saved jobs before they expire
AI-Powered Job Summary
Get a concise overview of key job requirements, responsibilities, and qualifications in seconds.
Pro Tip: Use this feature to quickly decide if a job matches your skills before reading the full description.
Vos missions
- Réaliser des analyses approfondies de grands volumes de données pour identifier tendances, modèles et insights au‑delà de l’analyse descriptive.
- Concevoir et développer des pipelines ETL/ELT pour l’ingestion de données (batch ou temps réel) vers Data Lakes, entrepôts ou bases de données.
- Développer et mettre en œuvre des modèles prédictifs, prescriptifs et des algorithmes de machine learning pour anticiper comportements et tendances.
- Concevoir et coder des algorithmes sur mesure en Python, R ou Scala, selon les besoins clients.
- Optimiser les performances des modèles et algorithmes (précision, efficacité, scalabilité, tuning).
- Agir en véritable consultant, en assurant l’accompagnement et la satisfaction des clients.
- Contribuer à des cas d’usage variés : segmentation client, détection de fraude, analyse de sentiments, recommandations personnalisées.
- Diplôme équivalent Master ou expérience professionnelle équivalente, ainsi que 1 à 2 ans d’expérience dans une fonction similaire.
- Maîtrise du français et de l’anglais ; l’allemand ou le luxembourgeois constitue un atout.
- Bon esprit d’analyse et orientation solution.
- Très bonne maîtrise des statistiques avancées, du data mining et de la manipulation de larges volumes de données (Big Data).
- Maîtrise des techniques de Machine Learning : clustering, Random Forest, Boosting, réseaux de neurones, etc., avec compréhension de leurs avantages et limites.
- Solide pratique des technologies ETL/ELT, notamment Dataiku.
- Excellente maîtrise de Python, en particulier des librairies pandas, scikit‑learn et numpy.
- Maîtrise des technologies NoSQL (MongoDB, HBase) ainsi que des bases SQL (MySQL, Oracle, DB2, SQL Server…).
- Pratique des technologies temps réel : Apache Kafka, Storm, Spark.
- Très bonne maîtrise de Power BI ; pratique de Dash appréciée.
Envie de relever un nouveau défi professionnel dans une entreprise multiculturelle et dynamique, qui investit dans le développement et le bien-être de ses collaborateurs ?
Rejoignez-nous en cliquant sur "Postuler"
Une copie conforme de votre diplôme et une copie récente de l’extrait du casier judiciaire vous seront demandées au cours du processus de recrutement.
#Niveau intermédiaire
#CDI
#informatique-infra-reseau #master #cdi #experimente #fr #en
Key Skills
Ranked by relevanceReady to apply?
Join DEEP and take your career to the next level!
Application takes less than 5 minutes

