Description du poste
Dans un contexte de transformation digitale accélérée, nos clients — grands comptes issus de la banque, du retail, de l’industrie ou encore du luxe — investissent massivement dans la valorisation de leurs données pour piloter leur performance et innover.
Au cœur de ces enjeux, la donnée est devenue un actif stratégique, utilisée pour optimiser les processus métiers, personnaliser l’expérience client et alimenter des modèles avancés (BI, IA, Machine Learning).
En rejoignant nos équipes, vous interviendrez sur des plateformes data modernes et cloud-native (GCP / Snowflake), manipulant des volumes de données conséquents dans des environnements exigeants.
Vous serez intégré(e) à des équipes agiles et pluridisciplinaires (Data Engineers, Data Analysts, Data Scientists), où vous contribuerez à la construction de pipelines de données robustes, scalables et industrialisés.
Ce poste vous permettra de :
* Travailler sur des cas d’usage concrets à forte valeur business
* Monter en compétence sur les technologies data les plus demandées du marché
* Avoir un impact direct sur les décisions stratégiques des clients
* Évoluer dans un environnement stimulant, orienté innovation et amélioration continue
En tant que Data Engineer, vous êtes un acteur clé de la chaîne de valeur data, garant de la qualité, de la fiabilité et de l’accessibilité des données.
* Concevoir et développer des pipelines de données robustes sur GCP
* Implémenter des traitements batch et streaming (Dataflow, Pub/Sub)
* Modéliser et optimiser les datasets dans BigQuery
* Participer à la mise en place d’architectures data scalables
* Industrialiser les flux via CI/CD et Terraform
* Assurer la qualité et la gouvernance des données
* Collaborer avec Data Scientists et équipes métiers
Qualifications
Stack technique
* Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer)
* Langages : Python, SQL
* Frameworks : Spark / PySpark
* Orchestration : Airflow / Composer
* Infra : Terraform, CI/CD
Profil recherché
* Bac+5 en informatique / data
* Expérience : 3 ans minimum en data engineering
* Bonne maîtrise de l’écosystème GCP
* Expérience en industrialisation de pipelines data
* Sensibilité aux enjeux data à grande échelle
Informations supplémentaires
Pourquoi nous rejoindre ?
* Projets structurants et visibles dans différents secteurs d'activités.
* Environnement stimulant et collaboratif
* Vision produit long terme
* Opportunités d’évolution au sein du groupe
* Projet à impact environnemental
* Environnement technique moderne
* Équipes expertes data / cloud
* Possibilité de télétravail
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.