Description du poste
Daily rate: 700
Contexte et objectif de la mission
Au sein d'un grand groupe bancaire, une équipe Data & AI développe depuis 5 ans un jumeau numérique du système d'information : une représentation vivante et dynamique de l'infrastructure IT (serveurs, routeurs, applications, interconnexions) alimentée en continu par les données du terrain.
L'architecture repose sur une base graphe massive détenant la cartographie temps réel de l'infrastructure, ainsi que sur une plateforme agentique accessible aux collaborateurs via chatbot web et messagerie collaborative.
Le projet entre en V3. Deux chantiers structurent la feuille de route immédiate :
• la refonte du modèle de données de la base graphe pour corriger le legacy
• la connexion des trois sources de données restantes
La mission s'inscrit dans ce contexte de transformation et d'industrialisation de la plateforme data et graphe.
Missions principales
Pipelines et ingestion
• Concevoir et maintenir les pipelines d'ingestion depuis les sources IT : Dynatrace, ServiceNow, Discovery, Kubernetes, Confluence, SharePoint, Jira
• Connecter les trois sources de données restantes via API, en coordination avec les équipes opérationnelles détentrices de la donnée
• Gérer les flux IT Data Capture, IT Event Capture et IT Doc Capture
Modélisation graphe et qualité des données
• Contribuer à la V3 du modèle de données TigerGraph : correction des erreurs structurelles héritées, absorption du legacy, amélioration de la rétro-compatibilité
• Résoudre les problèmes de déduplication et de merge inter-sources, lorsqu'une même entité est référencée différemment selon les outils
• Modéliser des entités cloud et Kubernetes dans le graphe en gérant les niveaux d'abstraction propres aux environnements hybrides
Infrastructure data
• Opérer et optimiser les instances TigerGraph de plus de 1 To et Memgraph dans un environnement Kubernetes / IaaS interne
• Contribuer à la CI/CD et à l'industrialisation des pipelines
• Participer à la mise en place du pipeline MLOps pour les modèles de maintenance prédictive
Collaboration produit
• Travailler avec les data scientists sur les besoins en données des agents spécialisés (incident, prédictif, Linux, Oracle, etc.)
• Contribuer au projet GraphRAG, en assurant la liaison entre base vectorielle interne et TigerGraph
Stack technique
• Base graphe principale : TigerGraph (GSQL)
• Bases graphe thématiques : Memgraph
• Orchestration agentique : LangGraph (Python)
• RAG / bases documentaires : LightRAG, base vectorielle interne, GraphRAG (à venir)
• Sources : Dynatrace, ServiceNow, Discovery, Kubernetes, Confluence, SharePoint, Jira
• Infrastructure : Kubernetes, IaaS interne
• CI/CD : GitLab CI, ArgoCD
• Observabilité : Dynatrace, Grafana, Prometheus
• ML : Python, PyTorch, scikit-learn, MLflow
Profil recherché
Compétences indispensables
• Expérience solide en bases de données graphe : Neo4j, Memgraph, Amazon Neptune, TigerGraph ou équivalent
• Bonne maîtrise de Python pour les pipelines d'ingestion et les transformations de données
• Expérience des environnements Kubernetes en production
• Capacité à gérer des problèmes complexes de qualité des données : déduplication, normalisation, merge multi-sources
• Une montée en compétence sur GSQL est prévue pendant la mission
Compétences appréciées
• Connaissance des architectures RAG / GraphRAG
• Expérience en environnement bancaire ou grand compte
• Familiarité avec les outils de monitoring IT tels que Dynatrace et ServiceNow
Soft skills
• Autonomie face à une donnée dense et hétérogène
• Capacité à négocier l'accès aux données avec des équipes opérationnelles
• Goût pour les environnements techniques complexes et les projets de longue haleine
Environnement et équipe
L'équipe compte environ 22 personnes, dont 6 data scientists, 3 DevOps, un architecte et des profils ML. L'environnement est orienté R&D appliquée avec un impact direct sur la résolution d'incidents dans un système d'information bancaire de grande ampleur.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.