Description du poste Objectif du poste Assurer l’industrialisation, l’automatisation et la fiabilité des pipelines de flux de data science dans un environnement cloud hybride AWS/GCP. Missions principales DevOps Concevoir et maintenir des pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins). Gérer l’infrastructure via Terraform. Déployer et superviser des applications conteneurisées (Docker, Kubernetes, Helm). Implémenter des solutions de monitoring (Prometheus, Grafana, CloudWatch, Stackdriver). Sécuriser les environnements cloud (IAM, KMS, gestion des secrets). MLOps Développer et orchestrer des pipelines ML & AI(Airflow, Vertex AI Pipelines). Déployer des modèles en production (Vertex AI Endpoint). Collaborer avec les data scientists pour automatiser le cycle de vie des modèles. Environnement technique Cloud : AWS (S3, SageMaker, EKS), GCP (BigQuery, Vertex AI, GKE) IaC : Terraform SaaS : Snowflake PaaS : Dataiku CI/CD : GitLab CI, GitHub Actions Conteneurs : Docker, Kubernetes Langages : Python, Bash, YAML Monitoring : Prometheus, Grafana, CloudWatch, Stackdriver ML Tools : Airflow, Kubeflow, Vertex AI, SageMaker
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.