Périmètre et objectifs de la mission
Mission principale :
Prendre en charge l?architecture de bout en bout des solutions data pour les produits et cas d?usage analytiques, au sein d?un ou plusieurs value streams.
Traduire les besoins métiers en solutions data sécurisées, scalables et optimisées en coût, s?appuyant sur la plateforme data d?entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise).
2. Responsabilités principales
Architecture :
Ingestion batch/stream, DWH (modélisation Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL/API/couche sémantique, gestion des flux de features ML si besoin.
Modélisation :
Transformation des concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation?).
BI & Analytics :
Gouvernance des KPIs, optimisation des dashboards et des requêtes, gestion du cache et des agrégats, promotion du self-service (dbt/metrics layer + catalogue).
Ops & FinOps :
Suivi des SLOs (fraîcheur, latence, coût), observabilité, runbooks, backfills, tuning du stockage et des requêtes pour réduire les coûts.
Gouvernance/Mesh :
Gestion des métadonnées, documentation, publication de blueprints et d?ADRs.
Profil candidat:
Expérience :
7 à 12 ans en ingénierie/architecture data avec DWH (Kimball/Inmon), BI, Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub.
Modélisation sémantique, data contracts, performance engineering, dbt/metrics layer, GCP + on-premise, IaC/CI-CD pour la data.
Pas de contraintes de nationalité. 2 jours de TT par semaine. Anglais courant.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.