Alten, la maison des ingénieurs : qui sommes-nous ? Fort de plus de 35 ans d’expérience, le groupe Alten est présent dans plus de 30 pays. Avec ses 54 000 collaborateurs, dont 88 % d’ingénieurs, Alten s’impose aujourd’hui comme un acteur international de référence et un leader sur son marché. Attaché au bien-être de ses collaborateurs, le groupe a été certifié Top Employer pour la 12ᵉ année consécutive. Cette reconnaissance repose sur un audit exigeant mené par le Top Employer Institute, évaluant plus de 600 pratiques RH, garantissant un environnement de travail de qualité pour tous. Pourquoi nous rejoindre ? Un engagement RSE fort : nos équipes contribuent à des projets porteurs de sens, tournés vers un avenir durable. Alten est notamment engagé dans plusieurs initiatives environnementales telles que Planet Tech’Care, la Charte de l’ingénierie ou encore le Climate Ambition Accelerator. Le développement des compétences au cœur de notre stratégie : nous accompagnons chaque collaborateur dans sa montée en compétences tout au long de votre parcours carrière. Une culture d’entreprise dynamique : événements fédérateurs, actions solidaires, webinaires innovation, challenges variés… Faites l’expérience d’un environnement stimulant où vous pourrez partager vos talents et vos passions. Contexte de la mission Dans le cadre d’un projet stratégique pour notre client, vous interviendrez au sein d’un environnement data cloud moderne basé sur Google Cloud Platform (GCP). Vous contribuerez à la conception, la mise en place et l’optimisation de pipelines de données à grande échelle, permettant de transformer des volumes importants de données en insights exploitables pour les équipes métiers. Vous évoluerez dans une équipe agile composée de Data Engineers, Data Analysts et experts cloud, sur des problématiques de traitement temps réel et batch. Missions principales Concevoir, développer et maintenir des pipelines de données sur GCP Mettre en place des flux de traitement batch et temps réel Travailler sur l’ingestion, la transformation et la restitution des données Optimiser les performances des traitements data (latence, coûts, scalabilité) Développer et maintenir des architectures data pipelines (ETL/ELT) Utiliser les services GCP (BigQuery, Dataflow, Pub/Sub, Cloud Storage…) Participer à la mise en place des bonnes pratiques DataOps Assurer la qualité et la fiabilité des données (data quality, monitoring) Collaborer avec les équipes métiers et techniques dans un environnement Agile Environnement technique Cloud : Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Cloud Storage…) Data Engineering : ETL / ELT, pipelines de données Langages : SQL avancé, Python (apprécié) Orchestration : Airflow (ou équivalent) DevOps : CI/CD, Git Architecture : Data Lake / Data Warehouse Méthodologie : Agile (Scrum) Profil recherché Diplômé(e) d’une école d’ingénieur (Bac5) Minimum 3 ans d’expérience en Data Engineering ou Data backend Bonne maîtrise du SQL (obligatoire) Expérience sur Google Cloud Platform (GCP) Connaissance des architectures data (ETL, ELT, Data Lake, DWH) Bonne maîtrise des problématiques de performance et de volume de données Connaissance de Python appréciée Sensibilité à la qualité et à la gouvernance des données Capacité à travailler en équipe dans un environnement agile Les du poste Projet orienté data à forte volumétrie Environnement cloud moderne (GCP) Enjeux de performance, scalabilité et temps réel Forte exposition aux problématiques Data Engineering avancées Collaboration avec des équipes métiers et data spécialisées
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.