Ingénieur Data (Python / GCP / Kubernetes) – Pipelines climat – CDI – Aubagne (Hybride)
Entreprise
Client final confidentiel, recrutement géré par TecHunt (cabinet externe).
Missions principales
* Conception & développement de pipelines : scripts et workflows Python pour ingérer, transformer et stocker des données issues de modèles climatiques (formats scientifiques).
* Orchestration : mise en place de DAGs avec Argo, Prefect (ou équivalent).
* Industrialisation & automatisation : packaging Docker, déploiements et évolutions sur Kubernetes (GKE), CI/CD (GitLab CI, Jenkins ou similaire).
* Maintenance & support : supervision des pipelines et services, gestion des incidents, diagnostic et actions correctives.
* Optimisation & montée en charge : architectures scalables et performantes, optimisation coûts GCP (Compute Engine, Cloud Storage).
* Documentation & transfert : rédaction de README/runbooks, bonnes pratiques, accompagnement/formation des équipes internes.
Profil recherché
* Formation : Bac+5 (Informatique, Data Science, Ingénierie ou équivalent).
* Expérience : Expérience minimum 2 ans en Data Engineering, idéalement Big Data / données scientifiques.
* Autonomie sur le cycle complet : du besoin à la mise en production.
Compétences techniques essentielles
* Python expert (polars, xarray, pandas, netCDF4), Dask.
* GCP : Cloud Storage, Compute Engine, IAM.
* Conteneurisation & orchestration : Docker, Kubernetes (GKE).
* Orchestration de workflows : Argo, Prefect (ou équivalent).
* CI/CD & DevOps : Git, GitLab CI/CD ou Jenkins, gestion des secrets, déploiements automatisés.
* Méthodologies : OOP, tests unitaires & d’intégration, GitOps, IaC (Terraform, Deployment Manager), Helm.
Qualités personnelles
Rigueur, sens de l’organisation et de la documentation • Esprit d’équipe et pédagogie • Excellente communication et capacité à vulgariser • Proactivité et curiosité tech.
(Un plus : intérêt/expérience en climatologie ou météorologie.)
Conditions
* Contrat : CDI, temps plein.
* Localisation : Aubagne (13) — hybride avec 1 jour de télétravail/semaine.
* Rémunération : 40–55 k€ brut/an selon XP.
* Démarrage : à convenir.
Candidature
* Postulez directement via APEC (CV à jour + court message).
Ingénieur Data autonome, très à l’aise avec les données scientifiques (climat/météo), capable de concevoir, industrialiser et opérer des pipelines Python sur GCP + Kubernetes, avec une vraie culture qualité, coût, perf.
Expérience
* Premiere experience de Data Engineering en PROD
* Exposition concrète à des formats scientifiques (netCDF, GRIB, HDF5) ou à des volumes/maillages spatio-temporels.
* Déjà intervenu·e sur optimisation coûts/perf cloud et SLA/SLO en production.
Hard skills incontournables
* Python expert (pandas/polars, xarray, netCDF4), Dask pour le scaling.
* GCP (Cloud Storage, Compute Engine, IAM), Docker, Kubernetes (GKE).
* Orchestration : Argo ou Prefect (DAGs, retries, alerting).
* CI/CD : GitLab CI/Jenkins, gestion des secrets, déploiements automatisés.
* Qualité & fiabilité : tests unitaires/intégration, data quality checks, observabilité (logs/metrics/traces).
TecHunt est un cabinet de recrutement spécialisé en Data, IA, Blockchain & Dev. Nous sommes avant tout des développeurs, et c'est ce qui fait toute la différence.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.