Missions principales
Piloter la conception et la mise en ?uvre de l?architecture Data sur Google Cloud Platform (GCP).
Concevoir, développer et maintenir des pipelines d?ingestion et de transformation de données internes et publiques.
Garantir la fiabilité, la performance et la scalabilité des flux de données au sein de la plateforme.
Mettre en place et industrialiser les environnements d?exécution via GKE, Terraform, et les outils d?orchestration (Argo Workflow, Airflow, etc.).
Développer et documenter des modèles de données avec DBT (ou SQLMesh).
Intégrer des solutions d?ingestion automatisée de données à l?aide de Python et d?outils tels que Fivetran ou Rclone.
Gérer le cycle de vie du code et des déploiements via GitLab CI/CD.
Collaborer avec les équipes Data Science et R&D pour comprendre leurs besoins et traduire ces besoins en solutions data robustes.
Promouvoir les bonnes pratiques en ingénierie de données, sécurité et gouvernance.
Compétences techniques requises
GCP (BigQuery, GCS) et SQL : maîtrise indispensable.
Kubernetes (GKE) et Terraform : expérience solide en déploiement et automatisation.
DBT ou SQLMesh : conception et maintenance de modèles de données.
Python : développement de scripts et pipelines d?ingestion.
Outils d?ingestion : Fivetran, Rclone ou équivalents.
Orchestration de workflows : Argo Workflow, Airflow ou outils similaires.
CI/CD : GitLab CI ou pipelines équivalents.
Compétences appréciées :
Connaissance d?Azure et de Databricks.
Expérience avec des mécanismes de Change Data Capture (DataStream, Debezium, etc.).
Profil recherché
Formation : Bac +5 ou équivalent (ingénierie, informatique, data).
Expérience : minimum 5 ans en Data Engineering, dont une expérience significative sur GCP.
Langues : maîtrise de l?anglais indispensable (environnement international).
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.