En lien étroit avec les équipes Produit, DevOps, et Intégration, les principales missions sont : 1. Fiabilisation, traitement et automatisation des données : Développer, maintenir et surveiller des pipelines de données robustes et scalables (batch ou temps réel avec Kafka) Intégrer les flux de données issus des différentes solutions (ex. SQOOL, Salesforce) pour alimenter les analyses métiers Garantir la qualité, la sécurité et la traçabilité des données traitées Participer à la définition et à l’implémentation des processus de data ingestion, transformation, stockage et exposition Contribuer à la constitution et à l’actualisation de l’entrepôt de données (data warehouse, DMP, etc.) 2. Industrialisation et mise en production des projets data : Mettre en œuvre des pratiques CI/CD pour les projets data (tests, versioning, intégration, déploiement) Conteneuriser les traitements via Docker/Kubernetes et assurer leur orchestration Collaborer avec les autres intervenants Data pour mettre en production des modèles de machine learning ou d’analyse Optimiser les performances des traitements et orchestrations en environnement cloud Documenter les flux et procédures d’industrialisation Faire le lien entre les équipes Data et Devops 3. Support, supervision et collaboration transverse : Assurer la disponibilité et la fiabilité des données nécessaires aux analyses Fournir un appui technique aux équipes Produit, Marketing ou SI pour l’accès ou l’exploitation des données Participer à l’amélioration continue des bonnes pratiques data (documentation, tests, monitoring, sécurité) Mettre en place des outils de supervision et d’alerte sur les traitements critiques
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.