Description du poste
Vous serez responsable de la conception, de l'optimisation et de l'exploitation de pipelines de traitement de données massives, dans un environnement distribué et fortement automatisé. Vous contribuerez à l'administration et à la supervision des plateformes techniques, notamment dans des contextes conteneurisés. Vous pourrez également intervenir dans l'opérationnalisation de projets IA : déploiement, mise à l'échelle et supervision de modèles de Machine Learning en production, en collaboration avec les équipes Data Science et MLOps ainsi que dans la mise en œuvre de solutions de visualisation de données techniques,
1. Développer et maintenir des pipelines Big Data (batch & streaming) à forte volumétrie (plusieurs To/jour).
2. Participer à l'administration et à la supervision des clusters Big Data (Hadoop, Spark, Kafka, Hive).
3. Superviser les plateformes à l'aide d'outils comme Nagios, Grafana, et ELK (Elasticsearch, Logstash, Kibana).
4. Gérer les déploiements de composants dans des environnements Kubernetes et OpenShift, en collaboration avec les équipes DevOps.
5. Développer des traitements ou intégrations spécifiques en Java.
6. Automatiser les tâches récurrentes (exploitation, déploiement, contrôle de qualité) via Airflow, Python, ou Bash.
7. Assurer la sécurité, la gouvernance, la conformité (RGPD, ISO...) et la performance des traitements back office.
8. Travailler en étroite collaboration avec les équipes infrastructure, sécurité et data science pour garantir un service de données fiable et scalable.
9. Participer à l'industrialisation de modèles IA/ML : ingestion de données, déploiement de modèles, suivi de performance.
10. Créer des dashboards de monitoring et d'analyse métier pour piloter les traitements ou visualiser les métriques critiques.
Profil recherché
Vos compétences
Compétences techniques :
Big Data & Traitement de données : Hadoop, Spark et Kafka
Langages & automatisation : Java, Python, Bash et Apache Airflow
Conteneurisation & Cloud :Kubernetes, OpenShift et Cloud
Supervision & monitoring : Nagios, Grafana et ELK Stack
Administration système : Linux et performances système
IA / Machine Learning : Notions de MLOps et participation à des projets d'industrialisation de modèles IA à l'échelle
Data visualisation :
11. Création de dashboards techniques et métiers
12. Maîtrise de Power BI
13. Capacité à exposer des indicateurs clairs et actionnables pour des publics variés (techniques et non-techniques)
Compétences personnelles :
14. Rigueur et fiabilité
15. Capacité d'analyse
16. Autonomie
17. Sens du service & esprit d'équipe
18. Communication claire
19. Curiosité et apprentissage continu
20. Résilience et sang-froid : en situation de crise ou d'incident, vous savez garder la tête froide, organiser la réponse, et agir efficacement.
Votre formation
21. Bac (école d'ingénieur ou université) en informatique, data engineering ou systèmes.
22. Expérience significative (3 à 5 ans minimum) dans un environnement Big Data en production.
Informations complémentaires
Pourquoi nous rejoindre ?
23. Contribuez à des projets qui font la différence dans le secteur de la santé.
24. Bénéficiez d'opportunités de développement professionnel et de formation continue.
25. Intégrez une équipe collaborative et engagée, où vos idées seront valorisées.
26. Vous évoluerez au sein d'une équipe dynamique qui partage vos valeurs avec la possibilité de télétravail (jusqu'à 3 jours par semaine). L'équilibre vie professionnelle et personnelle est un souci permanent et vous pourrez bénéficier de RTT (jusqu'à 29 jours par an).
27. Environnement technique exigeant avec des volumétries massives et des outils de pointe.
28. Stack Big Data & IA moderne, projets stratégiques à fort impact métier
29. Interaction directe avec les équipes Data Science et produit
30. Culture DevOps, automatisation, qualité de code.
31. Environnement agile, collaboratif et stimulant
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.