Contexte
Vous rejoignez une équipe Data internationale au cœur des enjeux de personnalisation et d’optimisation de l’expérience client à grande échelle.
L’objectif : transformer des volumes massifs de données en actifs fiables, exploitables et activables par les équipes Data Science, Marketing et Produit.
Vous interviendrez sur la construction des fondations data qui alimentent des modèles analytiques et algorithmiques à fort impact business.
Vos missions
🚀 Concevoir et industrialiser des pipelines data scalables
* Développer et maintenir des pipelines ETL/ELT haute performance en PySpark
* Orchestrer les workflows via Airflow
* Garantir performance, robustesse et maintenabilité du code
📊 Garantir la qualité et la fiabilité des données
* Mettre en place des contrôles de qualité et des tests (ex : Great Expectations)
* Assurer la fraîcheur et la cohérence des datasets
* Implémenter des standards de gouvernance et conformité (RGPD)
☁️ Optimiser l’infrastructure Cloud
* Exploiter et optimiser l’environnement AWS (EMR, S3…)
* Travailler dans un écosystème Databricks
* Mettre en place monitoring et observabilité (Datadog ou équivalent)
* Suivre les enjeux de performance et de coûts
🤝 Collaborer & structurer
* Travailler étroitement avec Data Scientists et Product Managers
* Contribuer à l’évolution du data model
* Participer aux bonnes pratiques d’ingénierie (revues de code, documentation, standards)
Profil recherché
* Minimum 4 ans d’expérience en Data Engineering
* Excellente maîtrise de Spark (PySpark) et Python
* Expérience solide en orchestration avec Airflow
* Bonne expertise des environnements AWS
* Expérience en data quality, gouvernance et conformité RGPD
* Capacité à concevoir des systèmes scalables et fiables
* Anglais professionnel (environnement international)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.