Contexte
Vous rejoignez une équipe Data internationale au cœur des enjeux de personnalisation et d’optimisation de l’expérience client à grande échelle.
L’objectif : transformer des volumes massifs de données en actifs fiables, exploitables et activables par les équipes Data Science, Marketing et Produit.
Vous interviendrez sur la construction des fondations data qui alimentent des modèles analytiques et algorithmiques à fort impact business.
Vos missions
#128640; Concevoir et industrialiser des pipelines data scalables
Développer et maintenir des pipelines ETL/ELT haute performance en PySpark
Orchestrer les workflows via Airflow
Garantir performance, robustesse et maintenabilité du code
#128202; Garantir la qualité et la fiabilité des données
Mettre en place des contrôles de qualité et des tests (ex : Great Expectations)
Assurer la fraîcheur et la cohérence des datasets
Implémenter des standards de gouvernance et conformité (RGPD)
☁️ Optimiser l’infrastructure Cloud
Exploiter et optimiser l’environnement AWS (EMR, S3…)
Travailler dans un écosystème Databricks
Mettre en place monitoring et observabilité (Datadog ou équivalent)
Suivre les enjeux de performance et de coûts
#129309; Collaborer & structurer
Travailler étroitement avec Data Scientists et Product Managers
Contribuer à l’évolution du data model
Participer aux bonnes pratiques d’ingénierie (revues de code, documentation, standards)
Profil recherché
Minimum 4 ans d’expérience en Data Engineering
Excellente maîtrise de Spark (PySpark) et Python
Expérience solide en orchestration avec Airflow
Bonne expertise des environnements AWS
Expérience en data quality, gouvernance et conformité RGPD
Capacité à concevoir des systèmes scalables et fiables
Anglais professionnel (environnement international)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.