Description du poste
Client : Éditeur de logiciels français d'environ 250 collaborateurs
* Deux offres majeures : solutions historiques on‑premise (13 logiciels métiers) et une plateforme digitale collaborative SaaS
* Positionnement très métier, exclusivement orienté marché français
Mission :
Au sein d'une équipe d'une quinzaine de personnes :
* Concevoir, maintenir et faire évoluer des pipelines data batch et streaming
* Participer activement à la migration vers Kafka et le temps réel
* Intervenir sur l’architecture data et cloud (AWS)
* Industrialiser les pipelines (Docker, CI/CD, tests)
* Déployer et maintenir l’infrastructure data via Terraform
* Collaborer étroitement avec les Analytics Engineers, PM et équipes Produit
* Contribuer à des services data orientés clients finaux (API, services externes)
Profil recherché
Stack tech : AWS (IAM, S3, RDS, EKS, ECS, DMS) / Airflow, DBT, Kafka, Snowflake / Terraform, Docker / Python, SQL...
* Profil Data Engineer confirmé à senior
* Minimum 3 à 5 ans d’expérience réelle en Data Engineering
* AWS obligatoire (aucune bande passante de formation sur ce sujet)
* Très bonne maîtrise des pipelines, de l’architecture data et des environnements cloud
* Terraform fortement apprécié
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.