Overview
Le groupe souhaite initier une démarche de standardisation dans l’intégration des données sur la plateforme, en tirant parti des capacités natives du cloud pour l’ingestion, la modélisation et la restitution des données présentes sur la data platform.
Le Data Architect interviendra pour concilier les enjeux techniques (feuille de route move to cloud) et les enjeux de gouvernance (documentation, lineage, Collibra, framework d’ingestion/restitution, mise en place de monitoring de la plateforme, définition des audits et design authority de la plateforme). Il/elle construira une feuille de route pour renforcer durablement la qualité de service.
Vos missions
1. Objet de la consultation
Le présent cahier de consultation a pour objet de définir les modalités de sélection d’un prestataire en charge de la réalisation d’une mission en régie d’un Data Architect. Son intervention conduira à la réalisation de différents livrables cités ci-dessous.
Ce rôle nécessite une forte capacité à animer les échanges, à traduire les enjeux techniques en impacts métiers, et à fédérer les parties prenantes autour d’une culture de la qualité de service et de l’amélioration continue pour revenir à un standard en termes de plateforme data (Cible : Snowflake S2 2026).
2. Expertise technique attendue :
Pour mener à bien cette mission, le groupe précise le niveau d’expertise nécessaire dans les domaines suivants :
* Compétences techniques générales
* Systèmes, Base de Données et architectures techniques
* CLOUD, Stockage, Sauvegarde, Virtualisation, Systèmes, Réseau
* SQL Server
* Systèmes d’exploitation Windows et Linux
* BPN Stonesoft
* LAN/WAN/DC Cisco
* Autres : AWS, SSIS, Grafana, cURL
* Compétences techniques spécifiques
* Modélisation de données avancée : maîtrise des modèles conceptuels, logiques et physiques (ex. Snowflake, Data Vault, Star Schema)
* Maîtrise des outils ELT & orchestration : SQL avancé, orchestration type JAMS, Airflow ou Dagster, utilisation de dbt serait un plus
* Expertise cloud & plateforme data : conception d’architectures cloud-native sur AWS, idéalement incluant Snowflake
* Gouvernance & catalogage : intégration de solutions comme Collibra, dbt docs pour le lineage et la documentation
* Expériences de l’environnement industriel, multi ERP : mise en œuvre de pipelines standards avec CDC (SAP Landscape Transformation serait un plus)
* Forte appétence à la data observabilité
* Compétences comportementales
* Leadership technique & Design Authority : capacité à valider les choix d’architecture et à fédérer autour des standards
* Pédagogie & vulgarisation : aptitude à expliquer les concepts techniques aux métiers et à former les équipes
* Rigueur & structuration : production de livrables clairs, auditable et alignés avec les standards de gouvernance
* Travail en transverse : collaboration fluide avec les équipes IT, métiers, gouvernance et architecture SI
* Anglais écrit et oral
Vos compétences
Prestation attendue :
La mission consistera à travailler sur :
* Frameworks d’ingestion et restitution
* Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE
* Framework « Observabilité & qualité des données » : définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA
* Monitoring des flux & santé de la plateforme : contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, services et ressources de la plateforme (en lien avec le plan de robustification déjà lancé et les travaux sur la partie FinOps)
* Plan de migration SSIS + SQL Server → Snowflake : définir la méthodologie (phases, outils, patterns) et identifier les risques et dépendances
* Stratégie d’Access Management : (priorité 2) définir les rôles, politiques RBAC/ABAC et garantir la conformité avec les standards de sécurité et gouvernance
* Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de rétro-documentations pourraient être réalisés afin d’illustrer les écarts vs état de l’art
Ces activités mèneront à la production des livrables ci-dessous :
* Documentation des frameworks ingestion & restitution (As is > To be)
* Plan d’observabilité & qualité des données (métriques, outils, roadmap)
* [CONTRIBUE] Tableau de bord pour monitoring des flux et santé plateforme
* Plan de migration (méthodologie, roadmap, estimation effort)
* Stratégie d’Access Management (modèle de rôles, règles d’accès)
* Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art
4. Livrables :
Les livrables sont détaillés dans la partie : Prestation attendue
Un suivi de l’activité à intervalles réguliers et sous une forme qu’il explicitera. Il donnera un exemple de document correspondant à sa démarche. Cela devra être un rapport hebdomadaire d’activité et ce rapport devra être commenté en présence du représentant.
Des rapports soit à l’initiative du Prestataire, soit sur demande du groupe. Ces rapports seront demandés par exemple dans le cas de diagnostics de pannes difficiles à établir ou mettant en jeu une organisation complexe ou suite à une demande d’audit d’une infrastructure technique.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.