En tant que Data Engineer chez LeHibou, vous concevez, industrialisez et opérez des pipelines de données robustes et performants. Vous garantissez la qualité, la fiabilité et la disponibilité des données depuis les sources opérationnelles jusqu’aux couches analytiques, pour servir les usages Data & Produit. Vous jouez un rôle clé dans l’évolution de notre plateforme data, son observabilité et sa scalabilité. Vous serez directement rattaché au CTO de LeHibou. Vos missions si vous l’acceptez ✨ Conception et industrialisation de pipelines Mise en place et optimisation d’ingestions (batch/near real-time) depuis des sources internes/externes via Airbyte et AWS (DMS, RDS, S3). Orchestration, monitoring et alerting des workflows pour un MTTD/MTTR minimal. Architecture et modélisation Structuration en layers (bronze/argent/or) avec séparation claire ingestion/transformations/serving. Application des bonnes pratiques de modélisation (étoile, ERD, faits/dimensions) inspirées de Kimball pour servir les besoins Analytics et Produit. Qualité, fiabilité et gouvernance Mise en place de tests automatisés (qualité, fraîcheur, contraintes) et de checks de data observability. Standards de documentation (nomenclatures, définitions de métriques, SLAs de datasets) et diffusion des bonnes pratiques. Performance et optimisation Tuning des requêtes et des modèles (PostgreSQL/DBT), optimisation des coûts et des temps de calcul. Gestion des partitions, indexations, et stratégies d’incrémental. Collaboration avec les équipes métier et Data Travail étroit avec notre Data Analyst et notre duo PO / CTO pour aligner la modélisation sur les cas d’usage. Accompagnement/formation des Data Analysts sur DBT, bonnes pratiques de modélisation et qualité de données. Évolution de la plateforme Contribution aux choix d’architecture, PoC sur de nouveaux composants. Note: connaissance de Snowflake appréciée (susceptible d’être utilisée sur des projets futurs). Stack Technique DBT (forte expertise attendue pour les transformations, tests et documentation) AWS Quicksight (data viz et consommation) AWS DMS, AWS RDS (PostgreSQL), S3 Airbyte (ingestion) PostgreSQL (entreposage/serveur de requêtes) Bonus: Snowflake (fortement apprécié pour de futurs projets), orchestration/monitoring (ex: Airflow/Prefect/DBT Cloud jobs, alerting CloudWatch)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.