Votre futur collectif :
* Rejoignez notre collectif Data composé de 250 personnes passionnées d’innovation et de data
* La communauté intervient sur tous les secteurs, tous les types d’entreprises et couvre toute la chaine de valeur de la data : data strategy, data design, data management, data compliance, data product management,data architecture, data engineering, data analytics, data science & IA et bien d’autres!
* Évoluez dans nos espaces de vie au Trocadéro avec une vue imprenable sur la Tour Eiffel
* Participez à nos différents temps forts, conférences, échanges informels (Datapéro), évènements (Live data, Data Summit…)
Vos nouveaux challenges pour ce poste :
Vous jouerez un rôle clé dans la création de pipelines fiables et optimisés, garantissant la qualité et la disponibilité des données pour les usages analytiques et IA.
Votre mission : transformer des environnements complexes en plateformes data robustes, scalables et orientées produit.
Vous intervenez entre autres sur les missions suivantes :
* Concevoir et développer des pipelines batch et streaming (ETL/ELT) performants et résilients.
* Implémenter des règles de qualité, validation et traçabilité des données.
* Optimiser les performances (coûts, latence, volumétrie) des traitements et des stockages.
* Contribuer à la modélisation des données (bronze/silver/gold, data products).
* Participer aux revues de code et à l’amélioration continue des pratiques.
* Collaborer étroitement avec les Data Analysts, Data Architects et équipes métiers pour répondre aux besoins business.
Votre profil et les expertises que vous souhaitez développer :
* Vous avez une solide expérience en développement de pipelines de données et en manipulation de grands volumes de données.
* Vous maîtrisez SQL et Python, et avez déjà travaillé avec des frameworks tels que Spark ou dbt.
* Vous souhaitez approfondir vos compétences sur les plateformes cloud (Azure, AWS, GCP) et les outils modernes de data engineering (Databricks, Snowflake, Airflow, Great Expectations).
* Vous êtes motivé(e) par l’optimisation des performances et la mise en place de bonnes pratiques de qualité et de gouvernance des données.
* Vous aimez travailler en équipe, partager vos connaissances et contribuer à des projets à fort impact.
Technologies clés :
* Azure / Microsoft Fabric : ADF, Event Hubs, ADLS Gen2, Synapse, Fabric, Purview
* AWS : Glue, Kinesis, Lambda, S3, Redshift
* GCP : Dataflow, Pub/Sub, BigQuery
* Databricks : Spark, Delta Lake, Autoloader
* Snowflake, dbt, Airflow, Great Expectations, SQL, Python
Notre processus de recrutement
* 1er échange RH sur vos souhaits et motivation, présentation de l’entreprise (durée: 30mn, Teams ou présentiel)
* 2ème échange avec un opérationnel (durée: 1h, Teams ou présentiel)
* 3ème échange avec un opérationnel (durée: 1h, Teams ou présentiel)
* 4ème échange avec un Partner: projection sur votre rôle au sein de Onepoint (durée: 1h, Teams ou présentiel)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.