Description du poste
Contexte de la mission :
Dans le cadre d’un projet stratégique au sein d’un grand groupe du secteur public, nous recherchons un DataOps confirmé pour accompagner les équipes projet dans l’industrialisation, le déploiement et le support de cas d’usage Big Data.
Vous interviendrez dans un environnement Agile SAFe, au sein d’une équipe structurée (Wagon) intégrée dans un Train Data, avec un périmètre technique moderne et distribué (Hadoop, Kafka, Spark, Docker, Kubernetes…).
Vos principales missions :
Activités principales (environ 70 %) :
* Support au build, test, release et POC des usages Big Data du périmètre confié
* Déploiement des cas d’usage en environnements de validation et de production
* Garant de la cohérence des processus CI/CD et des règles de conformité (RGPD, sécurité)
* Participation active aux cérémonies SAFe (Scrum of Scrums, PI Planning...)
* Suivi de la capacité d’équipe et gestion des actions de remédiation technique
Activités secondaires (environ 30 %) :
* Support de niveau 3 sur les incidents techniques/applicatifs liés aux déploiements
* Analyse des causes racines (root cause analysis), REX, recommandations d’amélioration
* Interface avec les équipes socles (infrastructure, sécurité, support transverse)
Profil recherché :
* Expérience confirmée (2+ ans) sur des missions DataOps en environnement Big Data on-premise
* Formation supérieure Bac+4/5 en informatique
* Bonne compréhension des enjeux de déploiement industriel, data pipeline, intégration continue et sécurité des données
* Aisance dans les environnements Agile / SAFe
Compétences techniques attendues :
* Écosystèmes Big Data : Hadoop (Cloudera), Kafka, Spark
* CI/CD et conteneurisation : Jenkins, Ansible, Docker, Kubernetes, Git/GitLab
* Langages : Python, Shell, Scala
* Bases de données : Hive, MySQL, PostgreSQL, Oracle, MariaDB
* Supervision & Ordonnancement : Airflow, Centreon, Dynatrace, Prometheus, Grafana
* Cloud / Infrastructure : OpenShift, VMware, Bare Metal, Azure, Databricks
* Formats de données : JSON, CSV, XML, Parquet
* Outils BI & Datascience : Tableau, Dataiku, Hue, Dremio
* Outils complémentaires : Nginx, Nexus, Cyberwatch, NiFi, AWX
* Règles de conformité : Bonne connaissance du RGPD
Qualifications
Profil recherché :
* Expérience confirmée (+ 2 ans) sur des missions DataOps en environnement Big Data on-premise
* Formation supérieure Bac+4/5 en informatique
* Bonne compréhension des enjeux de déploiement industriel, data pipeline, intégration continue et sécurité des données
* Aisance dans les environnements Agile / SAFe
Compétences techniques attendues :
* Écosystèmes Big Data : Hadoop (Cloudera), Kafka, Spark
* CI/CD et conteneurisation : Jenkins, Ansible, Docker, Kubernetes, Git/GitLab
* Langages : Python, Shell, Scala
* Bases de données : Hive, MySQL, PostgreSQL, Oracle, MariaDB
* Supervision & Ordonnancement : Airflow, Centreon, Dynatrace, Prometheus, Grafana
* Cloud / Infrastructure : OpenShift, VMware, Bare Metal, Azure, Databricks
* Formats de données : JSON, CSV, XML, Parquet
* Outils BI & Datascience : Tableau, Dataiku, Hue, Dremio
* Outils complémentaires : Nginx, Nexus, Cyberwatch, NiFi, AWX
* Règles de conformité : Bonne connaissance du RGPD
Informations supplémentaires
Vous êtes DataOps, avec une expérience concrète dans des environnements distribués et exigeants ? Rejoignez une mission ambitieuse à fort enjeu technique et métier.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.