Avec plus de 850 collaborateurs, Studi est LA grande école en ligne française, acteur incontournable de l’edtech et leader sur son marché de la formation en ligne et l’alternance. Filiale Edtech de Galileo Global Education - N°1 groupe mondial de l’enseignement supérieur privé - Studi propose plus de 300 formations préparant à des diplômes reconnus par l’État du niveau CAP au BAC5 et forme plus de 59 000 apprenants chaque jour. Depuis 1999 Studi s’appuie sur la technologie pour révolutionner le monde de la formation. Notre mission: Rendre l'éducation accessible à chacun, à chaque étape de la vie, pour préparer aux métiers et aux compétences d'aujourd'hui et de demain. Pour y parvenir, nous recrutons continuellement de nouveaux talents passionnés qui souhaitent grandir et prendre part à une belle aventure! Afin de poursuivre nos ambitions d'innovations digitales, nous mettons en place une squad IA. Nous recrutons donc sur notre site de Pérols un Data Engineer GCP (F/H) qui sera en charge de concevoir, construire et industrialiser la plateforme data moderne du groupe sur Google Cloud Platform. Le poste contribue à l’alimentation des décisions métier de l’ensemble des fonctions du groupe et participe à l’embarquement des nouveaux usages liés à l’IA générative et agentique. Le poste participe également à la conception de solutions robustes permettant le traitement de volumes importants de pipelines de données. Les solutions retenues doivent être sécurisées, performantes et suffisamment lisibles pour les Data Analysts et Data Scientists, principaux consommateurs des données stockées, afin de répondre efficacement aux besoins opérationnels et décisionnels de l’entreprise. Vos missions Conception et développement de pipelines data • Concevoir, développer et maintenir les pipelines d'ingestion et de transformation des données. • Contribuer à la modélisation médaillon (Bronze / Silver / Gold) sur BigQuery. • Développer et faire évoluer les modèles dbt (tests, documentation, lineage). • Orchestrer les traitements via Cloud Composer (Airflow) et Dataproc (Spark). Industrialisation et fiabilité • Mettre en place et maintenir les chaînes CI/CD (GitLab) et l'Infrastructure as Code (Terraform). • Garantir la qualité, la fiabilité et la performance des traitements en production. • Mettre en place l'observabilité (Cloud Monitoring, Elasticsearch, alerting). • Optimiser les coûts (FinOps) et la sécurité (IAM, Secret Manager). Collaboration et IA • Collaborer avec les Data Analysts pour exposer les bonnes données aux bons utilisateurs. • Accompagner les Data Scientists dans l'industrialisation de leurs modèles ML. • Participer aux chantiers IA agentique (MCP, couche sémantique, accès en langage naturel). • Contribuer à la documentation et au partage de connaissances au sein de l'équipe. Ton Profil Vous maîtrisez SQL avancé et la modélisation analytique, et faites preuve d’une grande rigueur ainsi que d’un esprit analytique vous permettant de concevoir des modèles de données fiables, performants et orientés métier. Vous possédez une solide expérience en Python pour le développement de scripts d’ingestion et d’APIs, associée à une forte autonomie et au sens du travail bien fait afin de produire des solutions robustes, maintenables et documentées. Vous justifiez d’une expérience significative sur un environnement cloud data, idéalement GCP, et êtes doté(e) d’une curiosité technique naturelle ainsi que d’une réelle envie de monter en compétences sur les nouveaux usages data et IA. Vous maîtrisez dbt (ou un outil équivalent de transformation analytique) ainsi que des outils d’orchestration tels qu’Airflow ou Cloud Composer, avec un véritable esprit produit orienté usage, qualité de service et valeur livrée. Vous êtes à l’aise avec les pratiques DevOps (Git, CI/CD, Docker et idéalement Terraform) et savez structurer des workflows fiables, industrialisés et collaboratifs grâce à votre esprit de synthèse et votre sens de l’organisation. Vous disposez de connaissances autour des architectures temps réel et distribuées via Kafka, Pub/Sub ou Spark, et faites preuve d’adaptabilité ainsi que d’une approche proactive dans la résolution de problématiques techniques complexes. Doté(e) d’une appétence marquée pour l’IA générative, le MLOps, le protocole MCP et les services Vertex AI, vous aimez explorer de nouvelles approches technologiques et contribuer à des projets innovants à forte valeur ajoutée. Vous appréciez le travail en équipe et savez vulgariser des sujets techniques auprès des métiers afin de favoriser la collaboration et l’alignement entre les équipes techniques et fonctionnelles. Force de proposition, vous aimez challenger l’existant et apporter des idées concrètes pour améliorer les architectures, les processus data et les usages au service des utilisateurs. Votre aventure chez Studi se construira autour de valeurs communes qui font notre richesse : AUDACE : Try it! Shake it! Chez Studi nous sommes curieux, nous proposons de nouvelles solutions et sortons de notre zone de confort. ENERGIE: Go for it! Do It! Nous donnons le meilleur de nous-même pour avancer. SOLIDARITE: Share it! Nous favorisons la collaboration, l'entraide et la bienveillance. RESPONSABILITE: Own it! Nous assumons une mission qui a du sens : moderniser et démocratiser l’éducation. Vous vous reconnaissez ? Nous sommes impatient(e)s de vous rencontrer ! Et puis Studi c'est aussi Jour de Télétravail selon les métiers ️ 5 jours de fermeture rémunérés Titres restaurants Activités et offres organisées par notre CSE Prime d'intéressement Événements et soirées Petit plus, vous pouvez bénéficier au cours de votre carrière de contenus de formation Studi! Adressez-nous votre candidature ! Type de contrat : CDI Lieu : Montpellier (34 000) - Cette opportunité est ouverte aux personnes en situation de handicap. STUDI_SJ
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.