Description du poste
Vous rejoindrez notre équipe Services publics, Protection sociale & Santé, qui accompagne les administrations et établissements publics pour mettre l’intérêt général au cœur des transformations numériques. Vous participerez à concevoir, fiabiliser et industrialiser les pipelines de données nécessaires aux usages métiers, tout en facilitant la collaboration avec les équipes et en contribuant à la diffusion d’une culture data.
MISSIONS :
Vous serez amené à :
Concevoir, développer et optimiser des pipelines de données :
• Construire des pipelines d’ingestion automatisés (API, batch, fichiers, etc.) dans une logique d’évolutivité.
• Développer des transformations robustes et scalables en Python, orchestrées avec un outil de gestion de workflows.
•Mettre en place des tests unitaires, des contrôles de qualité automatisés et des mécanismes d’alerte.
Modéliser, charger et industrialiser dans une démarche CI/CD :
• Concevoir des modèles de données adaptés aux usages et les implémenter dans l’outil adapté.
• Industrialiser les chargements via des workflows et assurer la cohérence des flux entre les environnements.
• Surveiller en temps réel les exécutions, diagnostiquer les causes d’échec et proposer des corrections durables.
• Collaborer avec les équipes techniques pour la résolution des incidents et l’amélioration continue des traitements.
Appuyer le support et accompagner les utilisateurs :
• Assurer un appui de niveau 2/3 (analyse de logs, relance de jobs, correctifs rapides).
• Documenter les anomalies, tracer les écarts et veiller à la qualité et la disponibilité des données.
• Recueillir les besoins métiers liés aux données et contribuer à la fiabilité des chaînes de traitement.
Qualifications
Formation et expérience
• Vous êtes diplômé(e) d’un Bac+5 (école d’ingénieurs, master universitaire ou école spécialisée en data).
• Vous justifiez d’au moins 3 ans d’expérience sur des missions liées aux pipelines de données, l’ingestion ou le traitement de data.
Savoir-être
• Vous disposez d’excellentes qualités de communication, tant à l’écrit qu’à l’oral.
• Vous savez écouter, analyser et reformuler les besoins métiers ou techniques afin de proposer des solutions pertinentes et techniques.
• Vous êtes autonome, rigoureux et structuré dans vos démarches d’investigation et de résolution de problèmes.
Compétences techniques
• Vous maîtrisez Python ainsi que l’orchestration de workflow tels qu’Airflow ou équivalent.
• Vous savez mener des investigations approfondies (analyse de logs et de métadonnées, reproduction d’erreurs, validation de la documentation).
• Vous disposez d’une bonne connaissance des bases de données SQL.
• Une expérience cloud (AWS, Azure, GCP) ou Big Data (Spark, Databricks, etc.) est un plus
Informations supplémentaires
Process rapide
Labellisé Great Place to Work pour la 5éme année !
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.