Description du poste Contexte Notre client est une organisation engagée dans une transformation « agentique » visant à industrialiser des cas d’usage GenAI/LLM au service des métiers. Les travaux sont pilotés au sein d’une équipe IT, avec un enjeu fortement business : accélérer l’expérimentation (POC) tout en garantissant un passage en production maîtrisé, sécurisé et conforme. Dans ce contexte, notre client recherche un profil senior capable de cadrer et sécuriser l’industrialisation de LLM en environnement Google Cloud Platform. La mission s’inscrit dans une dynamique d’adoption rapide des LLM et d’agents (workflows/outils) avec un double impératif : Délivrer rapidement des prototypes et preuves de valeur Mettre en place un socle SecOps/MLOps pragmatique pour opérer ces solutions en production. L’objectif est de définir et déployer les bonnes pratiques de sécurité et d’exploitation des solutions LLM (modèles, prompts, données, intégrations, monitoring), d’outiller les équipes pour réduire les risques (fuite de données, prompt injection, supply chain, dérives de comportement, non-conformité), et d’accompagner le cadrage des cas d’usage agentiques afin de prioriser ceux à plus forte valeur et maîtriser les risques dès la conception. Missions Cadrage de la démarche LLM SecOps/GenAI Ops : principes, standards, responsabilités (RACI), processus de mise en production et d’exploitation Analyse de risques et threat modeling spécifiques GenAI (prompt injection, data exfiltration, jailbreak, outils/agents, connecteurs, dépendances, supply chain, multi-tenant) et définition des mesures de mitigation Définition des exigences de sécurité et conformité : classification des données, règles d’usage, gestion des secrets, chiffrement, IAM, journalisation, rétention, exigences d’audit Conception du « guardrail » LLM : politiques d’accès, filtrage/contrôle de contenu, validation des entrées/sorties, contrôle des outils (tool calling), limites de contexte, gestion des erreurs et comportements sûrs Mise en place/renforcement des pratiques d’industrialisation sur GCP : environnements, CI/CD, séparation dev/test/prod, contrôles de sécurité dans les pipelines, gestion des artefacts Observabilité et run : définition des indicateurs (qualité, sécurité, coûts, latence), mise en place de monitoring/alerting, gestion des incidents, playbooks et procédures d’exploitation Gouvernance des prompts et versions : gestion de configuration, traçabilité, revues, tests de non-régression, validation avant mise en production Contribution à des POC « agentiques » : cadrage, design pragmatique, critères de succès, sécurisation by design, préparation au passage à l’échelle Production des livrables de référence : référentiel de contrôles, guidelines de développement sécurisé GenAI, modèles de documents (assessment, checklists), et recommandations de trajectoire Outils & Environnement Google Cloud Platform (GCP) avec maîtrise des fondamentaux sécurité : IAM, réseaux, chiffrement, logs, gestion des secrets CI/CD avec intégration de contrôles sécurité (SAST/DAST, scans dépendances, politiques, quality gates) adaptés aux composants GenAI Observabilité et approche SRE/Run pour services GenAI : monitoring, alerting, logs, traces Techniques de mitigation des vulnérabilités GenAI : guardrails, validation, sandboxing, least privilege Méthodologies de threat modeling et analyse de risques spécifiques GenAI Conditions de travail Date de démarrage : ASAP Durée : À définir Localisation : Paris Intramuros Télétravail : 3 jours de présentiel, 2 jours de télétravail TJM : Selon profil Profil recherché Expérience confirmée de sécurisation et d’exploitation de solutions LLM/GenAI en production (LLM SecOps / GenAI Ops / MLOps) Bonne maîtrise de Google Cloud Platform (GCP) et de ses fondamentaux sécurité ( IAM, réseaux, chiffrement, logs, gestion des secrets) CI/CD et intégration de contrôles sécurité ( SAST/DAST, scans dépendances, politiques, quality gates) adaptés aux composants GenAI Mise en place d’ observabilité (monitoring, alerting, logs, traces) et approche SRE/Run pour services GenAI Connaissances des vulnérabilités GenAI ( prompt injection, jailbreak, data leakage, supply chain) et techniques de mitigation (guardrails, validation, sandboxing, least privilege) Capacité à travailler sur des POC et à préparer l’industrialisation (patterns d’architecture, exigences non fonctionnelles, performance/coûts) Cadrage de cas d’usage GenAI/agentiques orientés valeur métier (définition de la proposition de valeur, critères de succès, priorisation) Gouvernance et gestion des risques (approche risk-based, conformité, auditabilité, traçabilité) Animation d’ateliers avec IT, sécurité, data et métiers ; formalisation de décisions et arbitrages Capacité à traduire des enjeux business en exigences opérationnelles et sécuritaires actionnables Culture conseil : structuration, production de livrables, recommandations, conduite du changement pragmatique Autonomie et séniorité dans des contextes peu cadrés Esprit de synthèse et forte capacité de structuration Orientation résultats (POC rapides, trajectoire d’industrialisation pragmatique) Excellente communication avec des interlocuteurs techniques et métiers Rigueur, sens du risque et posture de confiance vis-à-vis des équipes sécurité
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.