Missions principales :
Le Data Engineer est responsable de la conception, du développement et de l’optimisation des flux/interfaces de données au sein de notre entrepôt de données, la plateforme Snowflake. Il garantit la qualité, la disponibilité et la performance des données utilisées par les équipes Data et Métiers.
Il joue un rôle clé dans l’industrialisation des traitements, l’automatisation des flux et la modernisation de l’architecture data de l’entreprise.
Responsabilités:
Architecture & Modélisation
* Concevoir et maintenir des modèles de données adaptés aux besoins analytiques et opérationnels
* Définir les bonnes pratiques d’architecture dans Snowflake et DBT (schéma BRONZE/SILVER/GOLD,)
* Structurer les environnements Snowflake/Airbyte en garantissant la sécurité, la gouvernance et la performance.
Développement & Industrialisation
* Développer des pipelines d’ingestion et de transformation (ELT) performants et robustes.
* Automatiser les workflows DBT
* Implémenter des transformations SQL optimisées et documentées.
Performance & Optimisation
* Optimiser le coût et les performances Snowflake (clustering, warehouses, partitions logiques…).
* Surveiller les jobs, analyser les logs et résoudre les incidents de production.
* Améliorer continuellement la qualité des données (monitoring, alerting, data quality rules).
Sécurité & Gouvernance
* Appliquer les politiques de sécurité, gestion des accès (RBAC), masking et confidentialité des données.
* Garantir la conformité aux normes internes et réglementaires (RGPD notamment).
* Contribuer au catalogue de données et à la documentation technique.
Collaboration & Support
* Travailler en étroite collaboration avec les Data Analysts et équipes métiers (notamment Finance).
* Proposer des solutions techniques innovantes adaptées aux besoins opérationnels.
* Participer à la roadmap du Data Platform
Objectif du poste:
* Conduire la transformation vers une fonction Reporting unique et centralisée
* Mise en place d’indicateur de suivi de la performance au niveau global (groupe) et local (pays)
* Garantir la disponibilité du DWH
Formation
* Bac +5 en informatique, ingénierie, statistiques ou équivalent.
* Anglais professionnel nécessaire
Expérience
* 2 à 5 ans d’expérience en Data Engineering, idéalement sur Snowflake.
* Expérience dans un environnement data moderne (ELT, cloud, DataOps).
Compétences techniques
* Excellente maîtrise de Snowflake
* Solides compétences en SQL avancé et en modélisation de données.
* Maîtrise d’un outil d’orchestration (DBT de préférence).
* Expérience avec des outils de CI/CD (GitHub de préférence).
* Compréhension des bonnes pratiques de sécurité, gouvernance et optimisation de coût.
* Bonus : Python, APIs ou autres systèmes d’ingestion temps réel.
Compétences comportementales
* Rigueur, sens du détail et culture de la qualité.
* Capacité à vulgariser les sujets techniques.
* Proactivité, autonomie et esprit d’équipe.
* Curiosité et veille technologique permanente.
Qui sommes-nous ?
Depuis 1989, DOMIDEP accompagne les personnes âgées en maisons de retraite médicalisées. Notre ambition : proposer une prise en charge humaine, respectueuse et de qualité, tout en développant une entreprise responsable et durable.
Concrètement, cela signifie :
Des investissements importants dans la formation, le bien-être au travail et la performance énergétique de nos établissements
Une équipe de managers investis, dans une entreprise à l'ADN familial et entrepreneurial
Une labellisation RSE Lucie depuis 2018, gage de notre engagement sociétal
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.