Description du poste :
Nous recherchons un Data Engineer autonome disposant d?au moins 5 ans d?expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l?exploitation de solutions data afin d?atteindre leurs objectifs.
Missions principales :
? Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs.
? Construire et optimiser des pipelines ETL/ELT robustes et performants.
? Analyser les données et produire des visualisations accessibles via les outils décisionnels.
? Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier.
? Accompagner l?optimisation des offres, services et processus grâce à l?analyse et l?évaluation des données.
? Garantir la conformité aux règles d?éthique et de gouvernance du groupe.
? Présenter les fonctionnalités des produits data et faciliter leur maintenance.
? Réaliser des tests conformément à la stratégie définie.
? Maintenir à jour le catalogue des produits data (datasets).
? Fournir des kits de formation et des outils pour les utilisateurs.
Résultats attendus :
? Identification et sélection des données pertinentes pour les besoins opérationnels.
? Optimisation du temps, des ressources et des outils dédiés à l?analyse de données.
? Production de jeux de données et visualisations compréhensibles et accessibles.
? Mise à disposition de recommandations métier génératrices de valeur.
? Amélioration des processus, services et offres grâce aux analyses.
? Application stricte des règles de gouvernance et d?éthique data.
? Tests réalisés et conformes aux exigences.
? Catalogue des datasets à jour.
? Mise à disposition de supports et kits de formation pour les utilisateurs.
Compétences requises en Data Engineering :
? Modélisation de données : modèles relationnels, dimensionnels, Data Vault.
? ETL / ELT : conception, optimisation et gestion des dépendances.
? Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées.
? Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh?).
Langages :
? SQL avancé
? Python avancé
? PySpark avancé
Outils et technologies :
? Dataiku
? Power BI
? Databricks
? Azure Data Factory
? Azure Logic Apps
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.