Soors est un cabinet de conseil spécialisé dans l'accompagnement des entreprises pour le recrutement de profils techniques et experts IT. Nous valorisons l'innovation, l'excellence opérationnelle et la confidentialité dans tous nos projets. Notre positionnement nous permet d'offrir des missions stimulantes et un environnement de travail dynamique, axé sur la qualité et la réussite. Les valeurs de Soors reposent sur la transparence, la proximité et le développement des talents.
Le poste :
Dans le cadre d'un programme de modernisation du système d'information, vous intervenez au sein d'une équipe expérimentée pour renforcer la structuration et l'industrialisation des flux Data et DevOps.
Poste et missions :
- Participer à l'industrialisation des chaînes DevOps dans un environnement cloud native.
- Structurer et optimiser les flux Data Lake pour plusieurs applications critiques orientées data et services temps réel.
- Concevoir et mettre en place des architectures ArgoCD, Charts Helm industrialisés et pipelines GitLab CI/CD.
- Gérer et configurer des clusters Kafka, connecteurs Debezium, Trino, DAGs Airflow et dashboards de supervision.
Responsabilités :
- Assurer la qualité des livrables attendus : DAT, Runbooks MCO/PRA, standards techniques cloud native.
- Collaborer avec les équipes internes pour garantir la cohérence des solutions déployées.
- Veiller à l'automatisation et à la sécurité des processus, notamment via SAST, DAST, Trivy.
Environnement :
- Stack technique : Kubernetes, GitLab CI, Helm, ArgoCD, Grafana, Prometheus, Loki, Tempo, OpenStack, Kafka, Debezium, Spark SQL, Airflow, Apache Iceberg, Trino (PrestoSQL), Ceph, Java/Quarkus, Python, Kong, MQTT.
Modalités :
- Localisation : Bordeaux rive gauche
- Télétravail partiel possible
Profil recherché :
Nous recherchons un Data Engineer / DevOps senior doté d'une solide expérience en environnement cloud native et automatisé.
Expérience :
- 5 à 8 ans d'expérience en DevOps, Data Engineer ou Platform Engineer.
Compétences :
- Maîtrise de Kubernetes et GitOps.
- Expérience sur plateformes Kafka et Data Lake.
- Bonne connaissance des outils CI/CD et monitoring.
Soft skills :
- Autonomie, rigueur, capacité à travailler en équipe.
Formation :
- Diplôme Bac+4/+5 ou équivalent.
Plus :
- La connaissance du cloud open source, de l'automatisation et des standards techniques est appréciée.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.