- Concevoir, développer et maintenir des pipelines ETL / ELT
- Intégrer et transformer des données issues de sources multiples
- Gérer, orchestrer et optimiser les flux de données (performance, fiabilité)
- Assurer la qualité des données (contrôles, monitoring, nettoyage)
- Participer à la modélisation (Data Warehouse / Data Lake)
- Collaborer avec les équipes Data (Analyst, Scientist) et IT
- Expérience solide en ETL / ELT (idéalement avec Talend)
- Maîtrise avancée de SQL
- Expérience sur SQL Server et/ou Oracle
- Bonne gestion des flux de données (batch, optimisation, volumétrie)
- Connaissance des architectures data (modélisation, DWH, pipelines)
- Compétences Python appréciées
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.