VOS tâches Concevoir, développer et maintenir des pipelines de données robustes et évolutifs sur des technologies Big Data principalement dans le Cloud (AWS, Google Cloud, Microsoft Fabric) Instaurer et faire évoluer les pratiques DevOps et d’Infra-as-Code Participer à la définition des bonnes pratiques en matière de gestion et de gouvernance des données. Monter en compétences et se certifier sur des technologies de pointe comme les Lakehouses (Open Table Formats), Microsoft Fabric, les ELT de dernière génération, l’augmentation de nos capacités avec la GenAI Collaborer étroitement avec notre communauté Data et nos partenaires Cloud pour partager son expérience, expérimenter des outils Data, et valoriser notre savoir-faire Environnement technique: Environnements Big Data On Prem : Horton Works / Cloudera / Elastic search Environnements Big Data Cloud : GCP avant tout mais également Azure / AWS / Snowflake Langages et moteurs de développement : Spark, Kafka, Java, Scala, Python, Hadoop Data visualization : Microsoft Power BI / Qlik
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.