LivingPackets place l'intelligence au coeur de l'emballage, avec l'emballage le plus sûr et le plus durable au monde permettant pour la première fois des transactions totalement transparentes.
Tout cela en réduisant considérablement les déchets générés par le e-commerce et toutes les industries qui envoient ou reçoivent des colis (tonnes de plastique utilisées pour des emballages à usage unique) et en sauvant des millions d'arbres.
Prêt à rejoindre une entreprise révolutionnaire qui repousse les limites de la technologie et de la logistique ? Chez LivingPackets, nous sommes des pionniers de l'innovation, des créateurs de solutions de pointe et des visionnaires du secteur.
Nous recherchons des esprits créatifs, des penseurs audacieux et des innovateurs passionnés pour contribuer à notre mission de réinventer le monde de la logistique.
En tant que membre de l'équipe LivingPackets, vous travaillerez aux côtés des meilleurs talents de l'industrie, dans un environnement de travail stimulant, où la diversité et l'inclusion sont valorisées.
Rejoignez-nous et faites partie d'une entreprise en pleine croissance qui révolutionne la façon dont le monde se connecte et se déplace.
Vous prenez la responsabilité technique de la plateforme data de LivingPackets - une base existante qui nécessite une refonte pour accompagner les enjeux à venir. Votre mission : reconstruire une plateforme data robuste, scalable et orientée produit, capable de soutenir la croissance et les ambitions d'innovation de l'entreprise.
MISSION
La plateforme data existe mais elle doit être repensée pour supporter la montée en charge des événements IoT, des besoins analytiques plus sophistiqués, une gouvernance à renforcer, et une équipe Produit/Innovation qui a besoin de réponses rapides à partir des données.
Votre rôle couvre trois axes :
- Refondre et industrialiser - architecture data warehouse, pipelines, gouvernance, performance
- Rendre la donnée exploitable - transformation, qualité, accessibilité pour Produit et Innovation
- Anticiper - FinOps, scalabilité, intégration de l'IA dans les workflows data
POURQUOI CE RÔLE EST INTÉRESSANT
- L'IA comme levier central : LivingPackets intègre activement l'IA générative dans ses pratiques d'ingénierie. Sur la data, cela signifie : génération et optimisation de pipelines assistés, détection d'anomalies, documentation automatisée, exploration augmentée. Ce rôle implique de piloter cette intégration, pas seulement d'en bénéficier
- Sources de données riches et hétérogènes : événements IoT en temps réel (géoloc, capteurs, états de shipments), données transactionnelles multi-services, données opérationnelles - une diversité de sources que peu de plateformes offrent
- Chantier d'architecture structurant : une plateforme à mi-chemin, avec des fondations à repenser et des choix structurants à faire pour les 3 prochaines années
- Impact direct sur les décisions Produit et Innovation : votre travail se traduit en features, en arbitrages, en roadmap
- Rôle de Tech Lead : encadrement technique et coaching de l'équipe Data Analysts en place, en lien direct avec le Head of Engineering
- Organisation à décisions rapides : peu de niveaux hiérarchiques, POC encouragés, arbitrages directs
IMPACT & RESPONSABILITÉS CLÉS
Architecture & performance du data warehouse
Objectif : une plateforme qui tient à l'échelle et qui coûte ce qu'elle doit coûter
- Concevoir et faire évoluer l'architecture data warehouse (modélisation Bronze/Silver/Gold, partitionnement, stratégie de stockage)
- Optimiser les performances des pipelines et des requêtes : plans d'exécution, indexing, matérialisation - chaque requête lente est un coût et une friction pour les utilisateurs
- Piloter le FinOps data : suivi de la consommation, optimisation des coûts de stockage et de compute, alerting sur les dérives
- Mettre en place le monitoring et l'alerting des pipelines : détection de défaillances, SLA de fraîcheur, notification proactive avant que les utilisateurs ne remontent le problème
Pipelines & transformation de la donnée
Objectif : des données fraîches, fiables et prêtes à l'emploi
- Concevoir et maintenir les pipelines de bout en bout : ingestion, transformation, enrichissement, agrégation
- Intégrer les sources hétérogènes : événements IoT temps réel, PostgreSQL des services Backend
- Construire les modèles SQL/dbt pour les usages analytiques Produit, Innovation, Clients et reporting interne
- Garantir la qualité de la donnée à chaque étape : tests automatisés, règles de validation, traçabilité des anomalies
Gouvernance & data management
Objectif : une donnée qu'on peut expliquer, auditer et faire confiance
- Mettre en place la gouvernance data : ownership des datasets, data catalog, dictionnaire de données, lineage graphes
- Assurer la conformité RGPD : pseudonymisation, anonymisation, gestion des PII dans les pipelines, politiques de rétention
- Définir et faire respecter les standards de qualité et de documentation de la plateforme
- Former et guider l'équipe Data Analysts existante sur les bonnes pratiques et les outils de la plateforme
Consommation de la donnée & impact Produit/Innovation
Objectif : rendre la donnée accessible et activable par toutes les équipes consommatrices
- Collaborer avec l'équipe Produit pour comprendre les besoins analytiques et prioriser les chantiers data en conséquence
- Travailler avec l'équipe Innovation pour identifier les données pertinentes pour les cas d'usage IA/ML (détection d'anomalies, prédiction, NLP sur données opérationnelles)
- Mettre à disposition des équipes techniques internes des datasets fiables pour l'amélioration continue : suivi de la qualité firmware, analyse des comportements IoT, détection de régressions en production
- Outiller les équipes support client avec les données nécessaires à l'accompagnement de la transformation logistique : visibilité sur les expéditions, détection proactive des anomalies, indicateurs de performance par partenaire
- Exposer des datasets propres et documentés, consommables directement par les analystes et les modèles
- Être force de proposition : identifier les opportunités data qui peuvent créer de la valeur produit, technique ou opérationnelle, pas seulement répondre aux demandes entrantes
CONCRÈTEMENT
Une semaine type
- Début de semaine - alignement & priorisation : sync avec Head of Engineering et équipe Produit/Innovation, revue des pipelines en cours, priorisation des chantiers data
- Milieu de semaine - exécution & architecture : développement de pipelines, optimisation de requêtes, design review d'architecture, monitoring des coûts et performances
- Fin de semaine - gouvernance & collaboration : data quality checks, documentation, sessions avec les Data Analysts, exploration / POC sur des pistes d'amélioration ou d'innovation
Objectifs 3 mois
- Mois 1 : audit complet de la plateforme existante - architecture, coûts, qualité, pipelines critiques. Identification des risques et des quick wins
- Mois 2 : premier chantier structurant livré (architecture warehouse, optimisation FinOps ou refonte d'un pipeline critique) + mise en place du monitoring/alerting
- Mois 3 : gouvernance posée (data catalog, ownership, standards), premiers datasets consommés par Produit ou Innovation, roadmap data partagée avec le Head of Engineering
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.