Description du poste Contexte Refonte et scalabilité de l'infrastructure de données. Missions Design de l'architecture de données (Data Lakehouse/Mesh). Développement de pipelines ETL/ELT robustes avec Spark et dbt. Conteneurisation et orchestration des flux sous Kubernetes. Garantie de la qualité de donnée et de la disponibilité des systèmes. Outils & Environnement Python Spark DBT Kubernetes Conditions de travail Mission longue Mode hybride Profil recherché Expérience significative en architecture et scalabilité Maîtrise de Python, Spark, DBT et Kubernetes Compétences en développement de pipelines ETL/ELT Connaissance en conteneurisation et orchestration des flux Capacité à garantir la qualité des données et la disponibilité des systèmes
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.