Contexte & Objectif de la missionAu sein de la division, l?équipe Data Platforms conçoit, développe et maintient les infrastructures data stratégiques du Groupe.
Elle soutient les initiatives d?IA, de machine learning, d?automatisation et de conformité réglementaire, en mettant à disposition des plateformes robustes, scalables et sécurisées.
L?une des pierres angulaires de cet écosystème est le Data Hub, qui permet la centralisation, la gouvernance et la distribution des données de manière transverse, à l?échelle du groupe. Ce hub joue un rôle central dans l?industrialisation des usages data internes.
Dans ce contexte, nous renforçons notre capacité de support avec la mise en place d?un dispositif d?exploitation et de support N2 sur les composants c?ur du Data Hub.
? Description de la prestationVous contribuerez aux activités d?exploitation, de support et d?amélioration continue des plateformes suivantes, déployées sur Kubernetes (IBM IKS aujourd?hui, OpenShift demain) :
? Apache Spark
? Apache Airflow / Astronomer
? Starburst (Trino)
Les missions incluent :? Assurer le support N2 en production (analyse, résolution d'incidents, root cause analysis).
? Participer au tuning et à l?optimisation des traitements Spark, à l?amélioration des DAG Airflow, et à la gestion fine des catalogues Trino.
? Accompagner les équipes Data Science et Métiers dans une utilisation performante et sécurisée des plateformes.
? Contribuer à l?automatisation, la documentation et l?amélioration continue des environnements.
? Participer aux revues de logs, métriques et traces pour garantir l?observabilité et la résilience des composants.
? Compétences attendues? Techniques? Expérience confirmée en environnement Data en production (support N2, run).
? Maîtrise de Kubernetes, et au moins deux de ces trois briques :
? Apache Spark (profiling, tuning, configuration, gestion des ressources),
? Apache Airflow / Astronomer (optimisation, supervision),
? Starburst / Trino (catalogues, optimisation de requêtes SQL).
? Bonne connaissance de l?écosystème d?observabilité : Grafana, Kibana, Dynatrace ou équivalents.
? Compétences en scripting (Python, Bash, Ansible?).
? Connaissance des chaînes CI/CD (GitLab CI, Jenkins).
? Maîtrise de Helm, YAML, déploiement sur clusters Kubernetes.
? Notions de sécurité appréciées : HashiCorp Vault, PKI, RBAC.
Profil candidat:
? Soft Skills? Capacité à interagir avec des équipes variées (infra, data science, data engineering).
? Esprit d?analyse et rigueur dans la gestion d?incidents.
? Autonomie, esprit d?équipe, proactivité.
? Langues? Français courant
? Anglais professionnel (échanges avec certaines équipes techniques à l?international)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.