Description du poste Contexte Vous intégrerez une équipe data en mode intégré, en interaction directe avec les équipes métiers (finance), dans un contexte de digitalisation et d’industrialisation des processus data. L’environnement nécessite une forte capacité à vulgariser les sujets techniques et à accompagner des interlocuteurs non techniques. Missions Participer à la conception et à l’évolution de la plateforme data sur Databricks Développer et maintenir des pipelines de données (Spark / PySpark) Industrialiser les traitements (batch / streaming) et garantir leur fiabilité Contribuer à la mise en place des bonnes pratiques (Data Quality, gouvernance, CI/CD) Interagir avec les équipes métiers pour comprendre les besoins et valoriser les données Traduire des besoins fonctionnels en solutions techniques adaptées Accompagner les équipes dans l’usage de la plateforme data Participer aux choix techniques et à l’amélioration continue de la plateforme Environnement technique Databricks Spark / PySpark Azure (ou équivalent cloud) Data Lake / Delta Lake CI/CD / DataOps Conditions de travail Démarrage : ASAP Durée : mission longue (1 an renouvellement possible) Profil recherché Expérience significative en Data Engineering sur Databricks Très bonne maîtrise de Spark / PySpark Expérience sur des projets de plateforme data / Lakehouse Capacité à évoluer dans un environnement mixte (technique / métier) Aisance dans la communication avec des interlocuteurs non techniques Posture pédagogue, pragmatique et orientée delivery Expérience dans un contexte finance appréciée
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.