Votre rôle sera de :
Concevoir, développer, maintenir et déployer des pipelines de données scalables et performants.
Mettre en place des architectures Big Data sur AWS (S3, EMR, Lambda, Snowflake...).
Développer en Scala et exploiter Apache Spark pour le traitement massif des données.
Automatiser les workflows avec Apache Airflow et DBT pour orchestrer les pipelines.
Concevoir et exposer des APIs performantes pour servir les recommandations en temps réel (Scala, Saprk, Terraform, Gitlab CI CD, ECS Fargate, Kinesis, DynamoDB, S3, etc.).
Optimiser les performances et garantir la scalabilité du système pour gérer un grand volume d'utilisateurs.
Travailler en collaboration avec les équipes Data Science, Produit et DevOps pour assurer une intégration fluide.
C'est votre parcours
Vous justifiez d'une expérience de 5 ans minimum dans un environnement similaire
Vous maîtrisez AWS, Gitlab CI/CD, Terraform, vous êtes fluent en Scala et Spark avancé et aimez les challenges
Vous êtes experts dans le développement de solution d'intégration de données.
Vous parlez couramment Anglais
Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n'ont pas de secret pour vous !
Autonome, ouvert d'esprit et bon communiquant, vous disposez d'une grande curiosité scientifique.
C'est notre engagement Chez Consort Group, vous êtes un·e expert·e qu'on accompagne pour que chaque mission devienne une étape qui compte.
Un onboarding attentif et humain
Une vraie proximité managériale
Des formations accessibles en continu
Ingénieur Data experimenté
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.