Votre futur collectif : Rejoignez notre Hub Data & IA composé de 350 passionnés qui interviennent au quotidien chez nos clients et sur nos initiatives en interne sur toute la chaîne de valeur de la Data : Data Strategy, Data Management, Data Protection, Data Analytics, Data Platform, Data Science, IA Générative et bien d'autres Des missions variées dans tous secteurs confondus Des bureaux inspirants au Trocadéro, avec vue sur la Tour Eiffel Une vraie vie de communauté : Conférences, REX, Revolution Summit, Datapéros … Vos nouveaux challenges pour ce poste : Vous serez le référent sur les enjeux de fiabilité, d’industrialisation et de performance, en définissant les standards DataOps et en structurant les processus run & support. Votre mission : garantir la continuité et la qualité des opérations data dans des environnements complexes et multi-cloud. Vous intervenez entre autres sur les missions suivantes : Concevoir les architectures d’exploitation data (run, monitoring, sécurité). Définir les standards DataOps, CI/CD et observabilité. Garantir la résilience, la performance et la maîtrise des coûts. Structurer les processus run & support data pour assurer la fluidité des opérations. Accompagner les équipes sur les bonnes pratiques opérationnelles. Être le référent sur les enjeux de fiabilité et d’industrialisation des solutions data. Votre profil et les expertises que vous souhaitez développer : Vous avez une expérience solide en architecture data et en pratiques DataOps/DevOps/SRE. Vous maîtrisez les concepts d’automatisation, monitoring et observabilité appliqués aux environnements data. Vous souhaitez approfondir vos compétences sur les plateformes cloud (Azure, AWS, GCP) et les outils d’orchestration et de supervision. Vous êtes reconnu(e) pour votre capacité à structurer des processus robustes et à garantir la fiabilité des systèmes complexes. Vous aimez travailler en transverse avec les équipes Data, Cloud et Sécurité pour définir des standards d’exploitation. Technologies clés : Azure / Microsoft Fabric : ADF, Event Hubs, ADLS Gen2, Synapse, Fabric, Purview, Azure Monitor, Log Analytics AWS : Glue, Kinesis, Lambda, S3, Redshift GCP : Dataflow, Pub/Sub, BigQuery Databricks : Spark, Delta Lake, Autoloader Snowflake, dbt, Airflow, Great Expectations, Soda, SQL, Python, OpenTelemetry Processus de Recrutement : 1er échange RH : échange sur vos souhaits et motivation, présentation de l’entreprise (durée : 30mn, Teams ou présentiel) 2ème échange avec un opérationnel (durée : 1h, Teams ou présentiel) 3ème échange avec un opérationnel (durée : 1h, Teams ou présentiel) 4ème échange avec un Partner : projection sur votre rôle au sein de Onepoint (durée : 1h, Teams ou présentiel)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.