Vos missions
Objectif : garantir la disponibilité, la fiabilité et la performance des données, contribuant ainsi à la prise de décision et à l’innovation au sein de l’entreprise.
Votre rôle :
Concevoir, développer et optimiser des pipelines de données robustes et évolutifs
Participer à la mise en place des bases de données et des architectures Big Data, et les gérer
Assurer la qualité, la sécurité et la gouvernance des données
Intégrer, transformer et stocker des données provenant de diverses sources
Collaborer avec les équipes techniques et métiers pour répondre aux besoins analytiques
Automatiser les processus de collecte et de traitement des données
Surveiller et améliorer les performances des infrastructures de données
Assurer une veille technologique pour identifier et intégrer les meilleures pratiques du secteur
Votre profil
Une maîtrise de Python, ainsi que de langages tels que Spark et/ou Scala,
Une solide expérience avec les bases de données SQL et NoSQL,
Une bonne connaissance des outils ETL (comme Talend) et des technologies de stockage de données,
Des compétences en visualisation et analyse de données avec Power BI,
Une première expérience avec des plateformes Cloud (AWS, Azure ou GCP) et des architectures distribuées,
Une familiarité avec les concepts de Data Warehouse et de Data Lake,
Des connaissances de l’outil Celonis seraient un vrai plus pour l’analyse et l’optimisation des processus,
Un minimum de 5 années d’expériences,
Une bonne capacité à travailler en équipe, avec dynamisme, autonomie, réactivité et sens du relationnel.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.