Publiée le 11 décembre
Description de l'offre
🎯 Objectif du poste
Assurer l’industrialisation, l’automatisation et la fiabilité des pipelines de flux de data science dans un environnement cloud hybride AWS/GCP.
Missions principales
🔹 DevOps
- Concevoir et maintenir des pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins).
- Gérer l’infrastructure via Terraform.
- Déployer et superviser des applications conteneurisées (Docker, Kubernetes, Helm).
- Implémenter des solutions de monitoring (Prometheus, Grafana, CloudWatch, Stackdriver).
- Sécuriser les environnements cloud (IAM, KMS, gestion des secrets).
🔹 MLOps
- Développer et orchestrer des pipelines ML & AI(Airflow, Vertex AI Pipelines..).
- Déployer des modèles en production (Vertex AI Endpoint).
- Collaborer avec les data scientists pour automatiser le cycle de vie des modèles.
🧰 Environnement technique
- Cloud : AWS (S3, SageMaker, EKS), GCP (BigQuery, Vertex AI, GKE)
- IaC : Terraform
- SaaS : Snowflake
- PaaS : Dataiku
- CI/CD : GitLab CI, GitHub Actions
- Conteneurs : Docker, Kubernetes
- Langages : Python, Bash, YAML
- Monitoring : Prometheus, Grafana, CloudWatch, Stackdriver
- ML Tools : Airflow, Kubeflow, Vertex AI, SageMaker