A la fois Cabinet de recrutement & Société de conseil, Innova Solutions a une couverture nationale. Nous sommes basés à Sophia Antipolis, au cœur de la French Riviera, nous accompagnons nos clients dans toute la France et offrons à nos candidats des postes dans les secteurs de l'IT, des Télécoms et de l'Engineering.
Nos clients ont accès à plus de 85 bureaux à travers le monde :
- Aux États-Unis
- En Europe (Belgique et Nice)
- Au Royaume-Uni
- A Singapour
- En Inde
Au plaisir de collaborer chez Innova Solutions
️ Développeur Python Airflow / Data Engineer
Localisation : Bouches-du-Rhône (13) - 3 jours de présentiel par mois
Contrat : CDI
Rémunération : 55k€ annuels bruts fixes
Démarrage : ASAP ou sous 1 mois au plus tard
Langue : Anglais obligatoire (français non requis)
Contexte :
Dans un contexte de croissance et de renforcement de nos data pipelines, nous recherchons un·e Développeur Python / Data Engineer expert(e) Airflow pour soutenir l'équipe existante et absorber la montée en charge des projets en cours.
Vous intégrerez une équipe de 3 personnes, et collaborerez avec un architecte ainsi que deux DevOps dédiés à la plateforme Airflow, actuellement hébergée sur AWS — avec une migration vers Kubernetes en cours d'étude.
Ce rôle s'adresse à un profil 80 % développeur / 20 % DevOps, orienté production, fiabilisation et industrialisation des pipelines.
Tes responsabilités :
- Développer des data pipelines Airflow (extract-load & administration).
- Concevoir, maintenir et faire évoluer les DAGs utilisés par la plateforme.
- Contribuer à l'évolution du framework interne construit au-dessus d'Airflow.
- Participer à l'industrialisation d'une offre Airflow + dbt-core.
- Assurer l'onboarding et le support des équipes projet utilisatrices de la plateforme.
Ton profil :
- Diplôme bac+5 (Master ou diplôme d'ingénieur)
- 5 ans d'expérience minimum en Data Engineering ou développement Python orienté pipelines.
- Python : solide maîtrise en environnement de production.
- Airflow : expérience avancée, conception et optimisation de DAGs.
- Expérience solide avec : dbt, Git, AWS.
- À l'aise avec les environnements CI/CD et les bonnes pratiques DevOps.
Pourquoi cette mission ?
- Projet structurant avec fort impact sur la fiabilité des pipelines et la plateforme data.
- 3 jours de présentiel seulement par mois → excellente flexibilité.
- Équipe expérimentée, environnement moderne (Airflow, dbt-core, AWS).
- Opportunité d'être force de proposition dans l'industrialisation et la migration Kubernetes.
Envie d'échanger ?
Envoyez-nous votre CV dès maintenant !
Tous nos postes sont ouverts aux personnes en situation de handicap.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.