Dans le cadre de notre stratégie de recrutement et de croissance, nous recherchons des profils spécialisés en LLMOps afin d’accompagner nos clients dans leurs projets autour des grands modèles de langage (LLM).
Missions principales
1. Mise en production et exploitation
* Déployer, superviser et maintenir des modèles LLM (open source ou propriétaires) dans des environnements cloud, on-premise ou hybrides.
* Gérer l’ensemble du cycle de vie des modèles : entraînement, fine-tuning, déploiement, mises à jour.
* Garantir la haute disponibilité, la performance et la résilience des applications LLM.
* Assurer le déploiement de modèles à grande échelle et la gestion du versioning (avec rollback si nécessaire).
* Mettre en œuvre des pratiques avancées : A/B testing, shadow deployment, suivi de la dérive des données et des performances.
* Développer des mécanismes de feedback loop et de supervision humaine (RLHF / RLAIF).
* Optimiser le temps de réponse et contrôler les coûts liés à l’inférence.
* Participer à la conception de produits “LLM-friendly” (chatbots, copilotes, assistants intelligents, etc.).
2. Optimisation et intégration
* Concevoir et déployer des pipelines CI/CD adaptés aux modèles d’IA générative.
* Optimiser l’usage des ressources GPU/CPU afin de maîtriser les coûts et améliorer l’efficacité.
* Intégrer les modèles dans les produits et services métiers via des API, microservices ou agents intelligents
* Formation : Bac+5 en informatique, data science, intelligence artificielle ou équivalent (école d’ingénieurs, université).
* Expérience : 2 ans minimum dans des fonctions liées au MLOps, DevOps, Data Engineering ou AI Engineering, avec une expertise récente ou un fort intérêt pour les LLM et l’IA générative.
Compétences techniques
* Maîtrise des concepts et outils de MLOps/DevOps (Kubernetes, Docker, CI/CD, GitOps).
* Bonne connaissance des frameworks IA et NLP : HuggingFace, PyTorch, TensorFlow, LangChain.
* Expérience avec les bases vectorielles (FAISS, Weaviate, Pinecone, Milvus).
* Compétences en observabilité et monitoring (Prometheus, Grafana, ELK, MLflow).
* Connaissances en optimisation d’inférence : quantization, distillation, optimisation GPU/TPU.
* Maîtrise de l’intégration via API, microservices et architectures cloud.
* MLOps avancé
* NLP et LLM
* Infrastructure et DevOps
* Optimisation des modèles
* RAG (Retrieval-Augmented Generation
Soft skills
* Forte appétence pour l’innovation et l’IA générative.
* Rigueur, autonomie et sens de l’organisation.
* Capacité à travailler dans un environnement agile, collaboratif et en forte évolution.
* Bonnes compétences en communication, pour interagir avec les équipes techniques comme avec les métiers.
* Esprit analytique, sens du service et orientation résultats.
Le secteur des technologies de l'information (TI) connaît une période extraordinaire.
La transformation numérique des organisations continue de s'accélérer, et ETIXWAY est au premier plan de ce changement. Nous accompagnons nos clients dans leur démarche numérique et offrons à nos professionnels des opportunités de carrière stimulantes.
La réussite de ETIXWAY repose sur le talent et l'engagement de nos professionnels.
Ensemble, nous relevons les défis et partageons les bénéfices issus de la croissance de notre startup.
Rejoignez vous à nous pour prendre part à la croissance dans les services en technologies de l'information (TI) et en gestion des processus d'affaires.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.