Notre client est une entreprise à taille humaine, experte de la data, qui développe des solutions innovantes autour de la collecte, de l’analyse et de l’exploitation de données. Dans un contexte de structuration de ses fondations techniques, elle crée aujourd’hui un poste clé au sein de son équipe tech. Ce poste est en CDI, signé directement avec notre client.
🎯 Le contexte
Objectif : professionnaliser une infra data existante (en POC) et construire une stack fiable, sécurisée et scalable sur GCP, dans le respect d’exigences de conformité à venir (ISO 27001).
Un poste complet mêlant build, run, structuration d’outils, et collaboration directe avec les équipes data & produit.
🧰 Vos missions
* Déployer et sécuriser une infrastructure data sur GCP
* Orchestrer les flux avec Airflow
* Structurer l’environnement via Terraform (IaC)
* Mettre en place le monitoring & l’intégration continue
* Gérer les bases PostgreSQL et BigQuery
* Fiabiliser les outils existants et les faire évoluer
* Collaborer avec les Data Scientists, Dev Back & métier
💻 Stack & méthodes
* Cloud : GCP
* Orchestration : Airflow (déployé en interne)
* IaC : Terraform
* Monitoring : Datawize
* BDD : PostgreSQL / BigQuery
* Données traitées en batch, volumétrie en Go
🌱 Pourquoi ce poste ?
* Création de poste = impact immédiat et concret
* Culture produit, bienveillance et ouverture à la co-construction
* Remote flexible (présentiel 1 jour toutes les 2 semaines sur Paris)
* Autonomie, posture d’expert.e, sans management d’équipe
* Roadmap ambitieuse et long terme
👤 Profil recherché
* 5 à 7 ans d’expérience minimum en data engineering / DevOps
* Bonne maîtrise de GCP, Airflow, Terraform, PostgreSQL, BigQuery
* Esprit rigoureux, structuré, fiable
* Posture de partenaire, capacité à dialoguer avec les métiers
* Anglais technique attendu
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.