Description du poste
Taux journalier (TJM): 375-400 € selon profil
📍 Localisation
Mission basée à Eragny (95 – Val-d’Oise), à environ 30 min de Paris (accessible en voiture ou via RER A + Transilien).
Présence requise sur site 2 à 3 jours par semaine.
🎯 Contexte de la mission
Dans un environnement industriel exigeant, vous intervenez sur des problématiques de data engineering avancé, avec un fort enjeu d’industrialisation et de structuration des flux de données.
Votre objectif : fiabiliser et automatiser les pipelines de données utilisés par des algorithmes métiers critiques, dans un contexte technique structuré et contraint.
🛠️ Vos responsabilités
* Développer et industrialiser des connecteurs de données en Python
* Concevoir et optimiser des pipelines d’ingestion et de transformation
* Structurer, nettoyer et préparer les données pour intégration en base (PostgreSQL)
* Optimiser les performances des flux (volumétrie, temps de traitement, stockage)
* Travailler sur les formats de données optimisés (ex : Parquet)
* Réaliser des analyses statistiques pour valider la qualité des données
* Garantir la fiabilité et la maintenabilité des solutions développées
* Collaborer étroitement avec des équipes pluridisciplinaires (Data, IT, métier)
🧰 Stack technique
* Python (expertise Data Engineering)
* PostgreSQL (modélisation, performance)
* Pipelines & connecteurs de données
* Formats de données (Parquet, etc.)
* Librairies appréciées : Polars, SQLAlchemy
⚠️ Contraintes spécifiques
* Environnement soumis à des règles de confidentialité élevées (secteur défense)
* Profil habilitable requis
* Présence sur site obligatoire (partiel)
Profil recherché
🎓 Expérience attendue
➡️ 2 à 5 ans d’expérience minimum en Data Engineering
👉 En pratique, le niveau attendu correspond à un :
* Data Engineer confirmé (junior avancé / intermédiaire)
* Capable de travailler en autonomie sur des sujets techniques, mais pas encore expert
💡 Le contexte (industriel + contraintes sécurité/défense) implique une certaine maturité, même avec une expérience relativement courte.
💡 Compétences clés
* Solide maîtrise de Python appliqué à la data
* Expérience concrète en construction de pipelines data
* Bonne maîtrise des bases de données relationnelles
* Capacité à optimiser des traitements à grande volumétrie
* Compréhension des enjeux de qualité et structuration des données
🤝 Soft skills
* Autonomie et rigueur
* Capacité d’analyse et de synthèse
* Bon relationnel (travail en équipe transverse)
* Communication claire sur des sujets techniques
* Sens des responsabilités (contexte sensible)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.