Track This Job
Add this job to your tracking list to:
- Monitor application status and updates
- Change status (Applied, Interview, Offer, etc.)
- Add personal notes and comments
- Set reminders for follow-ups
- Track your entire application journey
Save This Job
Add this job to your saved collection to:
- Access easily from your saved jobs dashboard
- Review job details later without searching again
- Compare with other saved opportunities
- Keep a collection of interesting positions
- Receive notifications about saved jobs before they expire
AI-Powered Job Summary
Get a concise overview of key job requirements, responsibilities, and qualifications in seconds.
Pro Tip: Use this feature to quickly decide if a job matches your skills before reading the full description.
Les modèles de détection d'activité au cœur de DREEVEN sont déjà développés et intégrés par l'équipe IA. Ils fournissent des signaux d'entrée essentiels à la couche d'analyse de contrôle, influençant les décisions de couple, de synchronisation et de sécurité.
Ce stage se concentre sur rendre ces modèles interprétables et explicables, pour améliorer la compréhension clinique, le débogage et la fiabilité du système.
Aussi, tu travailleras sur la conception, l'implémentation et l'évaluation de méthodes d'explicabilité pour les modèles de détection d'activité actuellement utilisés dans DREEVEN.
Cela implique d'explorer à la fois les explications globales (au niveau du modèle) et locales (au niveau de la décision), de développer des outils de visualisation et d'évaluer comment les explications peuvent soutenir les flux de travail cliniques et d'ingénierie.
Activités
- Étudier l'architecture et les sorties des modèles de détection d'activité existants (déjà entraînés et validés par l'équipe IA de REEV).
- Développer des outils d'explicabilité et de visualisation pour interpréter les prédictions de ces modèles dans le temps.
- Appliquer et comparer des techniques d'explicabilité telles que SHAP, LIME, Integrated Gradients, Layer-wise Relevance Propagation (LRP) ou Attention Visualization.
- Évaluer les explications en termes de fidélité, stabilité et performance d'exécution.
- Proposer des méthodes pour rendre les explications compréhensibles aux cliniciens, testeurs et ingénieurs de contrôle.
- Intégrer le flux de travail d'explicabilité le plus performant dans le pipeline d'analyse de contrôle ou un tableau de bord de surveillance.
- Documenter les résultats et fournir des recommandations pour une intégration future dans les systèmes de production.
Connaissances techniques (obligatoires)
- Maîtrise solide de Python (NumPy, pandas, scikit-learn).
- Familiarité avec les frameworks d'apprentissage profond : PyTorch ou TensorFlow.
- Compréhension des données de séries temporelles et des modèles basés sur des capteurs (IMU, cinématique, etc.).
- Expérience avec les outils de visualisation de données (Plotly, Dash, Streamlit).
- Familiarité avec les concepts de biomécanique ou d'analyse de la marche.
- Connaissance pratique des méthodes d'IA explicable.
- Communication écrite et orale claire en anglais.
- Esprit analytique et rigueur scientifique.
- Curiosité, honnêteté et initiative.
- Capacité à travailler dans un environnement multidisciplinaire (IA, contrôle, experts cliniques).
- Contrat : Stage (6 mois)
- Rémunération : en fonction du diplôme + titres restaurant
- Date de début : 01 - 02 2026
- Environnement de travail : 445 L'Occitane - 31670 LABEGE
Key Skills
Ranked by relevanceReady to apply?
Join REEV and take your career to the next level!
Application takes less than 5 minutes

