En quelques motsCherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel
Description? Contexte de missionAu sein d?un pôle Data d?une douzaine de personnes, vous intégrerez l?équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l?expertise du pôle dans un contexte de croissance et d?industrialisation des usages data. L?objectif principal est d?optimiser l?infrastructure data afin d?assurer fiabilité, performance et scalabilité des pipelines.
En 2026, les enjeux stratégiques portent sur l?intégration de nouvelles sources de données, le déploiement d?outils de diffusion de la donnée (interne/externe) et l?ouverture vers des usages avancés (reporting, IA, open data).
? Missions principales & RôleMettre en ?uvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery.
Concevoir et développer des mécanismes d?ingestion et d?intégration pour de nouvelles sources de données externes.
Réaliser un audit complet de l?infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité.
Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines.
Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps).
Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle.
Participer au développement d?outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées.
? ObjectifsAméliorer durablement la performance, la robustesse et la scalabilité des pipelines de données.
Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable.
Faciliter l?intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée.
Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data.
Accélérer l?adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Profil candidat:
?? Compétences requisesTechniques (Hard Skills)Expériences indispensables
Expérience confirmée sur une plateforme data cloud en production avec enjeux de scalabilité.
Forte expérience en industrialisation de projets Data Science (MLOps).
Maîtrise des approches reverse ETL, APIs et diffusion de données vers des services externes.
Stack technique maîtrisée
GCP : BigQuery, Cloud Storage, Compute Engine, Vertex AI, Cloud Run.
Data Engineering : Airflow, dbt, Python, ClickHouse.
Data Science & MLOps : TensorFlow, Scikit-learn, FastAPI, MLFlow.
DevOps : CI/CD GitHub Actions, Terraform, Kubernetes, ArgoCD.
BI / Dataviz : Metabase.
? Profil recherché5 à 10+ ans d?expérience en Data Engineering, incluant des missions en environnement cloud et en production.
Aisance dans l?analyse de performance de pipelines complexes et dans le diagnostic de points de contention.
Expérience avérée en conception et déploiement de pipelines ML de production.
Capacité à encadrer, diffuser les bonnes pratiques et accompagner une équipe mixte Data Eng / Data Science.
Communication fluide en français, anglais technique opérationnel.
Rigueur, autonomie, sens du service, esprit d?analyse et gestion des priorités dans un contexte exigeant.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.