Contexte Nous accompagnons un acteur majeur disposant d'infrastructures critiques hybrides (on-premise cloud) dans la structuration et l'industrialisation de ses cas d'usage en Intelligence Artificielle. Dans ce cadre, nous recherchons un Lead Tech IA expérimenté, capable de travailler en étroite collaboration avec un Architecte IA déjà en place, et de prendre le relais opérationnel pour faire avancer les projets. Le poste est résolument hands-on, orienté delivery, avec une forte culture open source et des enjeux de mise en production à grande échelle. Vos missions Delivery & Lead technique - Accompagner l'Architecte IA dans la mise en œuvre des solutions - Prendre en charge les sujets techniques en autonomie en son absence - Faire avancer concrètement les projets (POC → industrialisation → production) - Encadrer techniquement les développeurs / data engineers Conception & orchestration de workflows IA - Designer et implémenter des workflows LLM et GenAI avec :LangFlow - LangFuse Structurer les chaînes de traitement (RAG, agents, pipelines multi-étapes)Optimiser les performances et la robustesse des workflows Observabilité & MLOps - Mettre en place l'observabilité des modèles et pipelines avec :MLflow Suivre les performances, dérives, logs et métriquesIndustrialiser les pratiques MLOps (versioning, tracking, reproductibilité)️ Architecture & environnements - Concevoir les environnements :Développement - Validation / staging - Production Définir les bonnes pratiques de déploiement en contexte hybrideGarantir la reproductibilité et la scalabilité des environnements ☁️ Intégration LLM & API - Concevoir et implémenter des APIs d'accès aux modèles LLM - Intégrer des services via :Microsoft Azure (Azure OpenAI, etc.) Gérer les problématiques de sécurité, latence et volumétrie ️ Infrastructure & hybridation - Travailler dans un contexte on-premise cloud - Déployer et opérer des composants open source en production - Gérer les contraintes d'infrastructure (compute, GPU, stockage, réseau) Coûts & performance - Analyser et optimiser les coûts liés aux LLM et à l'infrastructure - Arbitrer entre solutions cloud et on-premise - Anticiper les contraintes de passage à l'échelle Stack technique - Langage : Python (principal), API REST - GenAI / LLM : LangChain ecosystem, LangFlow, LangFuse - MLOps : MLflow - Cloud : Azure (OpenAI, services associés) - Infra : Linux, environnements on-premise, conteneurisation (Docker/K8s apprécié) - Data : pipelines data, stockage structuré / non structuré - Approche : open source first (hors dépendance cloud forte)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.