Au sein de notre entreprise, tu auras pour responsabilités de construire les pipelines d’ingestion et transformation nécessaires pour produire un premier référentiel consolidé et un dashboard GMV-ready. Tes missions au quotidien seront les suivantes :
-
-
Mettre en place les premières pipelines d’ingestion depuis les sources PFS (produit, vendeur, commande).
-
Implémenter les transformations nécessaires pour consolider les référentiels unifiés.
-
Structurer la data pour produire les KPIs GMV-ready (CA, volume, panier, etc.).
-
Participer aux ateliers métier pour comprendre les champs clés et les logiques business.
-
Automatiser la fraîcheur des données (batch minimal), mettre en place un monitoring simple.
-
Contribuer activement à la documentation technique pour le futur CDI.
-
Tester, valider et fiabiliser les pipelines (tests basiques + logs + alertes simples).
-
Support pour la construction du dashboard final (via un outil léger existant).
Livrables attendus :
-
-
Pipelines ingestion V1 opérationnelles.
-
Référentiels unifiés product/seller/order/transaction.
-
Jeux de données propres pour le dashboard GMV.
-
Monitoring simple (fraîcheur + erreurs critiques).
-
Documentation technique claire pour la reprise.Nous recherchons un profil avec une très bonne maîtrise des stacks de Data Engineering, incluant le SQL, l’ingestion et les transformations de données.
Une expérience confirmée dans la construction de pipelines batch est attendue. La connaissance des patterns lakehouse (Delta ou Iceberg) constitue un réel avantage. La connaissance d’Alibaba Cloud est un plus, mais ne constitue pas un prérequis strict : une montée en compétence rapide est tout à fait envisageable.
Le candidat devra être capable de travailler efficacement en binôme avec un Data Architect.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.