🚀 Senior Data Engineer GCP – Construisez des plateformes data modernes à fort impact 🚀
Vous aimez manipuler la donnée à grande échelle, concevoir des architectures cloud performantes et relever des défis techniques concrets ?
Vous souhaitez évoluer dans un environnement où la qualité du code, la scalabilité et la collaboration sont au cœur des projets ?
Ce que vous ferez :
En tant que Senior Data Engineer GCP, vous participerez à la conception et à la mise en œuvre de solutions data cloud pour des clients grands comptes et scale-ups en pleine croissance.
Votre mission : bâtir des fondations data solides et durables sur GCP, de l’ingestion à la valorisation.
Au quotidien, vous serez amené·e à :
* Concevoir et développer des pipelines de données robustes et automatisés (BigQuery, Dataflow, Pub/Sub, Composer…).
* Modéliser les données et optimiser les performances des traitements à grande échelle.
* Contribuer Ă la migration vers GCP et Ă la modernisation des environnements data existants.
* Mettre en place les bonnes pratiques de CI/CD, monitoring et gouvernance pour fiabiliser les process.
* Collaborer étroitement avec les équipes data, produit et cloud pour assurer la cohérence et la qualité des solutions livrées.
* Être force de proposition sur les choix d’architecture, d’outillage et d’optimisation.
Pourquoi ce poste est unique :
* Vous interviendrez sur des projets stratégiques et variés, du data warehouse à la data platform complète.
* Vous travaillerez avec les dernières technologies GCP (BigQuery, Dataproc, Dataform, Looker, etc.).
* Vous évoluerez dans un cadre bienveillant et exigeant, qui valorise l’expertise technique et la curiosité.
* Vous aurez un impact direct sur la performance et la culture data des entreprises accompagnées.
* Vous rejoindrez un collectif passionné, qui partage la même vision : mettre la data au service de la valeur métier.
Profil recherché :
* Minimum 5 ans d’expérience en Data Engineering ou Cloud Data Architecture.
* Excellente maîtrise de GCP et de ses services data (BigQuery, Dataflow, Pub/Sub, Cloud Storage…).
* Bon niveau en Python, SQL et infrastructure as code (Terraform, Cloud Build, GitLab CI/CD…).
* Sens du travail en équipe, rigueur technique et goût pour la résolution de problèmes complexes.
* En bonus : connaissance de DBT, Airflow, ou des architectures orientées streaming.
📍 Poste basé à Paris (mode hybride)
💬 Envie de relever le défi ? Discutons-en !
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.