Description de l’offre
Vous êtes passionné(e) par la gestion et l’architecture des données et souhaitez évoluer dans un environnement cloud innovant ? Nous avons une opportunité passionnante pour vous ! Rejoignez notre équipe et contribuez à la conception et à l’optimisation des infrastructures data au service de projets stratégiques.
Vos missions
1. Concevoir et déployer des architectures data robustes et scalables sur le cloud (Azure, AWS, GCP).
2. Développer et optimiser des pipelines de données pour l’ingestion, la transformation et l’exploitation des données.
3. Gérer la sécurité et la gouvernance des données, en assurant la conformité avec les réglementations en vigueur (RGPD, audits, etc.).
4. Superviser la gestion des coûts cloud (FinOps) et l’optimisation des performances des flux de données.
5. Collaborer avec les équipes Data Science, Data Analysts et métier pour garantir des solutions adaptées aux besoins.
6. Mettre en place et gérer des API avec Azure Functions, Databricks et API Management.
7. Assurer une veille technologique et promouvoir les bonnes pratiques de développement (CI/CD, Git flow, code review, tests).
Profil recherché
* Expérience : Minimum 5 ans en data engineering / architecture.
* Compétences techniques : Expertise en Azure (Databricks, Data Factory, Storage Gen2, DevOps), maîtrise de Spark, Hadoop, Kafka, AirFlow.
* Très bonne connaissance de Python, Scala, SQL, bases de données relationnelles (PostgreSQL, SQL Server, Hive) et NoSQL (MongoDB, Cassandra, CosmosDB).
* Expérience avec les outils DevOps : Jenkins, Docker, Kubernetes, Terraform, CI/CD.
* Certifications cloud (Azure, Databricks, AWS) appréciées.
* Qualités requises : Esprit analytique, rigueur, capacité à travailler en équipe, force de proposition, appétence pour l’innovation.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.