Vous aurez donc les missions principales suivantes: Configurer, structurer et mettre en oeuvre l'environnement Azure Data Lake et Databricks afin de répondre aux besoins d'ingestion et de traitement des données. Créer des pipelines d'ingestion robustes sous Apache NiFi, intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service. Veiller à la stabilité de l'environnement, à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l'équipe Data.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.