Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle.
Mission
Nous recherchons un Lead MLOPS / Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM.
Contexte
Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle.
Responsabilités principales
Industrialisation des systèmes RAG/LLM :
1. Automatiser le processing de documents volumineux (ex: PDFs 250+ pages)
2. Mettre en place des pipelines de chunking et d'indexation automatiques
3. Gérer la montée en charge des bases de connaissances
4. Implémenter des métriques de monitoring pour détecter les dérives des modèles
Architecture & Scalabilité :
1. Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes)
2. Déployer sur infrastructure cloud Azure
3. Containerisation avec Docker/Kubernetes
4. Mise en place de CI/CD spécialisés pour l'IA
Développement & Bonnes Pratiques :
1. Refactorisation du code Data Science selon les standards industriels
2. Injection de dépendances, programmation orientée objet
3. Tests automatisés, clean code, modularité
4. Gestion des dépendances et versioning des modèles
MLOps & Monitoring :
1. Supervision des performances des modèles en production
2. Détection du drift et mise en place d'alertes
3. Gestion des réentraînements automatiques
4. Tableaux de bord et métriques business
Profil recherchéCompétences techniques obligatoires :
1. Python expert (5 - 10+ ans d'expérience)
2. 1 Expérience concrète avec RAG/LLM en production
3. Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle
4. MLOps : pipelines ML, monitoring, drift detection
5. Architecture logicielle : design patterns, injection de dépendances, OOP
6. DevOps : Docker, Kubernetes, CI/CD
Compétences techniques souhaitées :
1. Frameworks : LangChain, Haystack, ChromaDB, Pinecone
2. Bases de données vectorielles
3. Streaming de données (Kafka, Pulsar)
4. Orchestration (Airflow, Prefect)
Soft skills :
1. Leadership technique : capacité à guider une équipe de Data Scientists
2. Pédagogie : transmission des bonnes pratiques
3. Autonomie sur des projets complexes
4. Mindset industrialisation : passage du POC à la production
Environnement technique
1. Stack : Python, FastAPI, SQLAlchemy, Pydantic
2. IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI
3. Cloud : Azure (priorité) / AWS / GCP
4. Orchestration : Kubernetes, Docker, Terraform
5. Monitoring : Prometheus, Grafana, MLflow
6. Méthodologie : Agile, TDD, Code Review
Exemple de cas d'usage concret
"Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement :
1. Découper le document en chunks optimaux
2. Indexer dans la base vectorielle
3. Permettre des requêtes précises ('dates des événements X')
4. Monitorer la qualité des réponses
5. Alerter en cas de dégradation"
Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée.
Modalités
1. Durée : 6-12 mois (renouvelable)
2. Format : Freelance/Régie
3. Localisation : Hybride (2-3 jours sur site)
4. Démarrage : ASAP
Profil du candidat
Profil recherchéCompétences techniques obligatoires :
1. Python expert ((5 - 10+ ans d'expérience)
2. Expérience concrète avec RAG/LLM en production
3. Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle
4. MLOps : pipelines ML, monitoring, drift detection
5. Architecture logicielle : design patterns, injection de dépendances, OOP
6. DevOps : Docker, Kubernetes, CI/CD
Compétences techniques souhaitées :
1. Frameworks : LangChain, Haystack, ChromaDB, Pinecone
2. Bases de données vectorielles
3. Streaming de données (Kafka, Pulsar)
4. Orchestration (Airflow, Prefect)
Soft skills :
1. Leadership technique : capacité à guider une équipe de Data Scientists
2. Pédagogie : transmission des bonnes pratiques
3. Autonomie sur des projets complexes
4. Mindset industrialisation : passage du POC à la production
Environnement technique
1. Stack : Python, FastAPI, SQLAlchemy, Pydantic
2. IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI
3. Cloud : Azure (priorité) / AWS / GCP
4. Orchestration : Kubernetes, Docker, Terraform
5. Monitoring : Prometheus, Grafana, MLflow
6. Méthodologie : Agile, TDD, Code Review
Description de l‘entreprise
Pourquoi cette mission est unique
Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique.
Ce qui vous attend :
1. Autonomie technique : Liberté de choix sur les architectures et technologies
2. Visibilité : Présentation de vos réalisations au comité de direction
3. Impact business : Vos optimisations se traduisent directement en gains mesurables
4. Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives
5. Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français
Vous évoluerez dans un environnement où l'excellence technique rencontre l'innovation business, avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent.
Modalités
1. Durée : 12 mois (renouvelable)
2. Localisation : Paris La Défense – Télétravail hybride
3. Démarrage : ASAP
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.