Upply construit une plateforme d’intelligence de marché pour le transport & la logistique en Europe. Tu vas rejoindre l’équipe RED (Research, Engineering & Development). Tes principales responsabilités 1. Construction & exécution de pipelines (avec mentoring) Participer à la conception et au développement de pipelines ETL/ELT fiables (batch/stream). Contribuer aux Jobs Databricks et à l’orchestration (Data Factory) sous l’accompagnement du Lead. Gérer les I/O vers Delta Lake / Unity Catalog. 2. Qualité des données & observabilité Mettre en place des contrôles qualité (fraîcheur, intégrité, complétude) et alertes de base. Suivre les métriques d’exécution (temps, coûts, taux d’échec) et documenter les incidents. 3. Collaboration transverse Travailler avec les Data Scientists pour préparer/déployer des features & modèles. Collaborer avec Produit & Backend pour la consommation des datasets et API internes. Partager l’avancement, remonter les dépendances et risques. 4. Documentation & partage Rédiger la documentation technique (schémas de flux, contrats de données, readme). Contribuer aux standards (naming, conventions, bonnes pratiques). 5. Montée en compétences structurée Suivre un parcours 30/60/90 jours (revues de code, pair programming, mini-projet). Proposer des améliorations continues (petits PRs : performance, robustesse, coût). Encadrement & formation Onboarding et mentorat assuré par notre Lead Data Engineer. Tu seras formé·e aux outils de la stack (Databricks, ADF, Delta/UC) et aux pratiques maison (qualité, sécurité, FinOps light).
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.