Description du poste
Taux journalier (TJM): 500-550€/jour
Contexte
Notre client est un acteur majeur des services environnementaux, exploitant des dispositifs connectés de télérelève et radio-relève à grande échelle pour le suivi et le pilotage opérationnel. Au sein de la DSI, l’équipe « systèmes connectés » gère un portefeuille d’applications en BUILD et en RUN, dont une solution récemment mise en production visant à industrialiser l’accès à des indicateurs métiers via Grafana. Dans ce contexte, notre client recherche un profil expérimenté pour reprendre la responsabilité technique d’un projet existant et en assurer la pérennité et l’évolution.
La mission s’inscrit dans la stabilisation et l’extension d’une plateforme de supervision/reporting de la télérelève, reposant sur une chaîne d’ingestion pilotée en Java et un stockage/indexation dans Elasticsearch, avec restitution via des dashboards Grafana. La volumétrie est significative (environ 1 million de modules, indexation quotidienne sur un historique pluriannuel), impliquant des enjeux de performance, qualité de données, gouvernance des index et robustesse en production.
Les objectifs principaux sont :
* Maintenir et fiabiliser le socle en RUN (analyse d’incidents, correction des écarts d’affichage, optimisation)
* Faire évoluer le modèle de données et les objets indexés selon les besoins métiers
* Piloter le backlog et coordonner les échanges avec le métier, le Product Owner et les parties prenantes techniques (notamment sur l’authentification/SSO)
* Préparer les trajectoires d’évolution du socle, incluant une éventuelle migration à moyen terme vers un environnement Databricks/Azure
Missions
* Prise en main et analyse de l’existant : architecture, pipelines d’ingestion Java, mapping/index templates, règles de rétention, requêtes et dashboards Grafana, procédures d’exploitation
* Responsabilité technique du projet en autonomie (consultant unique côté technique) : priorisation technique, arbitrages, gestion des risques et maintien de la qualité de service
* RUN & support : analyse des incidents, investigation des écarts de données (causes ingestion/indexation/requêtage), correction et mise en place d’actions préventives (monitoring, alerting, durcissement des contrôles)
* Évolutions fonctionnelles : ajout de nouveaux objets/indicateurs demandés par le métier, conception des structures d’index (mappings, normalisation, stratégie d’indexation), mise à disposition dans Grafana
* Optimisation performance & volumétrie : tuning Elasticsearch (sharding, refresh, ILM, requêtes), optimisation des pipelines d’ingestion, gestion de l’historique et des coûts (stockage/temps de réponse)
* Développement backend : évolution et maintenance du code Java orchestrant l’ingestion (robustesse, gestion d’erreurs, rejouabilité, traçabilité), amélioration de la qualité et de la couverture de tests si applicable
* Conception et industrialisation de requêtes d’extraction et de transformation dans Elasticsearch (agrégations, time-series, requêtes optimisées) pour exploitation fiable dans Grafana
* Contribution à l’intégration sécurité/accès : travail avec les équipes concernées sur l’authentification/autorisation (ex. SSO, Keycloak) afin d’intégrer la solution dans d’autres projets
* Pilotage Agile et reporting : suivi des US/Features/Bugs dans Azure DevOps, mise à jour des indicateurs (burndown, avancement), préparation/animation des points avec le PO et le métier
* Documentation et transfert : mise à jour de la documentation d’exploitation et d’architecture, procédures de support, recommandations de trajectoire (dont scénario Databricks/Azure)
Outils & Environnement
* Elasticsearch : ingestion, indexation, mappings, agrégations, optimisation requêtes et performance
* Java : maintenance et évolution d’un pipeline d’ingestion, debug, gestion des erreurs, performance
* Grafana : conception et exploitation de dashboards orientés indicateurs métiers
* Écosystème ELK et infrastructure Elastic (notions d’exploitation, ILM/rétention, sizing, monitoring)
* Azure DevOps : gestion backlog, suivi anomalies, pilotage de delivery
* Authentification/autorisation : SSO, Keycloak
* Méthodologie Agile
Conditions de travail
* Date de démarrage : ASAP
* Durée : À définir
* Localisation : À définir
* Télétravail : À définir
* TJM : 500-550€
Profil recherché
1. Elasticsearch avancé : ingestion, indexation, mappings, agrégations, optimisation requêtes et performance
2. Expérience data à forte volumétrie et contraintes de RUN (haute disponibilité, observabilité, gestion d’incidents)
3. Java (maintenance/évolution d’un pipeline d’ingestion, debug, gestion des erreurs, performance)
4. Grafana : conception et exploitation de dashboards orientés indicateurs métiers
5. Écosystème ELK et infrastructure Elastic (notions d’exploitation, ILM/rétention, sizing, monitoring)
6. Azure DevOps (gestion backlog, suivi anomalies, pilotage de delivery)
7. Compréhension de pipelines data (collecte, transformation, structuration, exposition d’indicateurs)
8. Capacité à traduire un besoin métier en modèle de données et indicateurs (KPI) exploitables
9. Analyse de causes racines (RCA) et communication claire sur les écarts de données/résultats
10. Expérience en contexte produit (backlog, priorisation, échanges PO/métier, amélioration continue)
11. Sensibilité aux enjeux d’authentification/gestion des accès (SSO) et intégration transverse
12. Très forte autonomie et sens des responsabilités (rôle de référent technique unique)
13. Excellente capacité d’analyse et de debugging en production
14. Communication fluide avec le métier et pédagogie sur les sujets data
15. Rigueur, pragmatisme et orientation résultats (stabilisation + delivery d’évolutions)
16. Anglais courant (écrit/oral) pour documentation et interactions techniques
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.