Vos principales missions :
Activités principales (environ 70 %) :
Support au build, test, release et POC des usages Big Data du périmètre confié
Déploiement des cas d?usage en environnements de validation et de production
Garant de la cohérence des processus CI/CD et des règles de conformité (RGPD, sécurité)
Participation active aux cérémonies SAFe (Scrum of Scrums, PI Planning...)
Suivi de la capacité d?équipe et gestion des actions de remédiation technique
Activités secondaires (environ 30 %) :
Support de niveau 3 sur les incidents techniques/applicatifs liés aux déploiements
Analyse des causes racines (root cause analysis), REX, recommandations d?amélioration
Interface avec les équipes socles (infrastructure, sécurité, support transverse)
Profil candidat:
Expérience confirmée (2+ ans) sur des missions DataOps en environnement Big Data on-premise
Formation supérieure Bac+4/5 en informatique
Bonne compréhension des enjeux de déploiement industriel, data pipeline, intégration continue et sécurité des données
Aisance dans les environnements Agile / SAFe
Compétences techniques attendues :
Écosystèmes Big Data : Hadoop (Cloudera), Kafka, Spark
CI/CD et conteneurisation : Jenkins, Ansible, Docker, Kubernetes, Git/GitLab
Langages : Python, Shell, Scala
Bases de données : Hive, MySQL, PostgreSQL, Oracle, MariaDB
Supervision & Ordonnancement : Airflow, Centreon, Dynatrace, Prometheus, Grafana
Cloud / Infrastructure : OpenShift, VMware, Bare Metal, Azure, Databricks
Formats de données : JSON, CSV, XML, Parquet
Outils BI & Datascience : Tableau, Dataiku, Hue, Dremio
Outils complémentaires : Nginx, Nexus, Cyberwatch, NiFi, AWX
Règles de conformité : Bonne connaissance du RGPD
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.