Responsabilités clés
* Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt
* Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier
* Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales
* Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements
* Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking)
* Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake
* Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags
* Implémenter des tests de qualité des données via les tests dbt
* Gérer les aspects administratifs des bases Snowflake
Compétences techniques requises
Snowflake
* Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning)
* Configuration et optimisation des warehouses Snowflake
* Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3
* Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking
* Administration des bases Snowflake (création et gestion des objets, supervision, optimisation)
dbt (data build tool)
* Développement avancé de modèles SQL avec dbt
* Création et optimisation de modèles de données (dimensions, faits, etc.)
* Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable
* Configuration des tests dbt pour la validation des données
* Mise en œuvre des snapshots dbt pour le suivi des évolutions des données
* Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags
* Documentation des modèles de données
DataOps & Automatisation
* Utilisation de schemachange pour l’automatisation des migrations de schéma
* Mise en place de pipelines CI/CD pour les plateformes data
* Maîtrise de Git et des workflows de développement collaboratif
AWS & Intégration
* Connaissance de AWS S3 et de son intégration avec Snowflake
* Configuration des external stages et des processus d’ingestion
Qualifications souhaitées
* Expérience avec les Snowflake Tasks et les Dynamic Tables
* Connaissance des principes de data mesh et de gouvernance des données
* Familiarité avec les frameworks de tests de données
* Expérience dans le secteur pharmaceutique ou des sciences de la vie
Profil candidat:
Certifications (souhaitées)
* SnowPro Core Certification – fortement appréciée
* Certification dbt Analytics Engineering – un plus
* Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.