Votre futur collectif : Rejoignez notre collectif Data composé de 250 personnes passionnées d’innovation et de data La communauté intervient sur tous les secteurs, tous les types d’entreprises et couvre toute la chaine de valeur de la data : data strategy, data design, data management, data compliance, data product management, data architecture, data engineering, data analytics, data science & IA et bien d’autres ! Évoluez dans nos espaces de vie au Trocadéro avec une vue imprenable sur la Tour Eiffel Participez à nos différents temps forts, conférences, échanges informels (Datapéro), évènements (Live data, Data Summit…) Vos nouveaux challenges pour ce poste : Vous jouerez un rôle clé dans la création de pipelines fiables et optimisés, garantissant la qualité et la disponibilité des données pour les usages analytiques et IA. Votre mission : transformer des environnements complexes en plateformes data robustes, scalables et orientées produit. Vous intervenez entre autres sur les missions suivantes : Concevoir et développer des pipelines batch et streaming (ETL/ELT) performants et résilients. Implémenter des règles de qualité, validation et traçabilité des données. Optimiser les performances (coûts, latence, volumétrie) des traitements et des stockages. Contribuer à la modélisation des données (bronze/silver/gold, data products). Participer aux revues de code et à l’amélioration continue des pratiques. Collaborer étroitement avec les Data Analysts, Data Architects et équipes métiers pour répondre aux besoins business. Votre profil et les expertises que vous souhaitez développer : Vous avez une solide expérience en développement de pipelines de données et en manipulation de grands volumes de données. Vous maîtrisez SQL et Python, et avez déjà travaillé avec des frameworks tels que Spark ou dbt. Vous souhaitez approfondir vos compétences sur les plateformes cloud (Azure, AWS, GCP) et les outils modernes de data engineering (Databricks, Snowflake, Airflow, Great Expectations). Vous êtes motivé(e) par l’optimisation des performances et la mise en place de bonnes pratiques de qualité et de gouvernance des données. Vous aimez travailler en équipe, partager vos connaissances et contribuer à des projets à fort impact. Technologies clés : Azure / Microsoft Fabric : ADF, Event Hubs, ADLS Gen2, Synapse, Fabric, Purview AWS : Glue, Kinesis, Lambda, S3, Redshift GCP : Dataflow, Pub/Sub, BigQuery Databricks : Spark, Delta Lake, Autoloader Snowflake, dbt, Airflow, Great Expectations, SQL, Python Notre processus de recrutement 1er échange RH sur vos souhaits et motivation, présentation de l’entreprise (durée : 30mn, Teams ou présentiel) 2ème échange avec un opérationnel (durée : 1h, Teams ou présentiel) 3ème échange avec un opérationnel (durée : 1h, Teams ou présentiel) 4ème échange avec un Partner : projection sur votre rôle au sein de Onepoint (durée : 1h, Teams ou présentiel)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.