Pour un de nos clients nous recherchons :
À propos de nous :
Notre entreprise est pionnière dans le domaine de l'IA vocale, transformant la manière dont l'IA traite et comprend le langage parlé. Notre technologie de diarisation des locuteurs distingue les intervenants avec une précision inégalée, quelle que soit la langue parlée, permettant à l'IA de comprendre non seulement ce qui est dit, mais aussi qui le dit et quand.
Fondée par des experts en IA vocale avec plus de 10 ans d'expérience dans le domaine (anciens scientifiques du CNRS), nous avons développé l'un des modèles open-source les plus téléchargés sur HuggingFace, avec 52 millions de téléchargements mensuels et plus de 140 000 utilisateurs dans le monde. Après avoir levé 8 millions d'euros auprès de fonds d'investissement internationaux (Crane Venture Partners, Serena, ainsi que des business angels de HuggingFace et OpenAI), nous développons désormais notre plateforme entreprise.
De la transcription de réunions à l'analyse des centres d'appels, en passant par le doublage vidéo et les agents vocaux, notre technologie alimente la prochaine génération d'applications vocales dans des secteurs qui dépendent de la compréhension de qui parle et quand.
🧵 Votre rôle
En tant qu'ingénieur·e en Machine Learning, vous ferez le lien entre la recherche de pointe et les systèmes de production, en transformant des modèles de diarisation de locuteurs à l'état de l'art en une infrastructure scalable de traitement vocal en temps réel. Vous travaillerez directement avec nos scientifiques et au sein de l'équipe technique pour écrire du code de production en Python et Rust, optimiser l'inférence à faible latence et construire l'infrastructure ML qui alimente le modèle de diarisation leader dans le domaine de l'IA vocale.
Vous serez amené·e à :
* Concevoir, implémenter et déployer des modèles de Machine Learning, en particulier dans le domaine de l'audio/IA vocale (diarisation des locuteurs, séparation de la parole, reconnaissance vocale, etc.).
* Développer des produits/services en Rust/Python pour soutenir l'entraînement et l'inférence des modèles, aussi bien en streaming qu'en batch.
* Travailler avec des frameworks ML comme PyTorch/ONNX.
* Construire et maintenir des environnements conteneurisés (avec Docker) pour l'entraînement/l'inférence des modèles, les tests et les pipelines CI/CD.
* Mettre en place des workflows CI/CD (construction/test/déploiement des modèles), surveiller les performances des modèles en production et résoudre les problèmes d'inférence/pipeline.
* Optimiser les performances d'inférence (latence, débit, utilisation des ressources), en particulier pour les systèmes vocaux en temps réel.
* Collaborer avec les chercheurs, les ingénieurs logiciels, les équipes DevOps/MLOps et les équipes produit pour intégrer les modèles ML dans les services de production.
* Maintenir la documentation des architectures de modèles, des pipelines de données, des workflows de déploiement, des tests, et servir de pont entre la recherche/prototype et la production.
* Se tenir au courant des dernières avancées en matière d'IA vocale, d'optimisation des modèles (quantification, ONNX runtime, inférence embarquée) et proposer des améliorations.
Ce qui rend ce rôle unique :
Vous travaillerez à l'intersection de la recherche en IA révolutionnaire et de la production réelle, en collaborant directement avec des pionniers de l'IA vocale. Contrairement aux rôles classiques en ML, vous utiliserez à la fois Python pour les workflows ML et Rust pour les systèmes critiques en termes de performance, une exposition rare à toute la stack, de l'entraînement au déploiement. Avec plus de 140 000 développeurs utilisant notre technologie, vos optimisations auront un impact immédiat sur l'une des plateformes d'IA vocale à la croissance la plus rapide au monde.
🔍 Ce que nous recherchons
Compétences requises :
* Solides compétences en programmation en Python, en particulier pour le ML/deep learning (prétraitement des données, architecture de modèles, entraînement, évaluation, inférence). (Essentiel)
* ET/OU solides compétences en programmation en Rust (aspects systèmes/basse couche, concurrency sécurisée, performance, intégration de moteurs d'inférence ou de services en Rust). (Essentiel)
* Expérience solide avec un framework de deep learning tel que PyTorch (préféré) — construction/entraînement de modèles à partir de zéro, fine-tuning, évaluation, etc.
* Expérience dans la conversion ou le déploiement de modèles utilisant ONNX (exportation de modèles, optimisations, exécution d'inférence via ONNX runtime ou similaire).
* Expérience dans la création de workflows conteneurisés avec Docker (création d'images, définition de Dockerfiles, gestion des déploiements de conteneurs).
* Expérience avec les pipelines CI/CD (création de workflows de construction/test/déploiement de modèles, versioning, automatisation du déploiement des modèles).
* Expérience dans le déploiement de modèles en production (services d'inférence, endpoints API, pipelines batch, streaming si applicable), monitoring/observabilité des modèles.
* Expérience dans le domaine de l'audio/IA vocale : diarisation des locuteurs, embedding vocal, reconnaissance vocale (ASR), synthèse vocale (TTS), reconnaissance du locuteur, extraction de caractéristiques.
* Bonnes pratiques en ingénierie logicielle : contrôle de version (Git), revues de code, tests automatisés (unitaires/intégration pour les pipelines ML), journalisation/monitoring, architecture propre.
* Bonne compréhension des fondamentaux du ML : statistiques, probabilités, algèbre linéaire, métriques d'évaluation des modèles, surapprentissage/sous-apprentissage, biais/variance, généralisation, etc.
* Bonnes compétences en communication et collaboration — capacité à traduire les compromis techniques du ML pour les équipes produit/métier.
Atouts supplémentaires :
* Expérience avec d'autres frameworks de déploiement/serving : Kubernetes, fonctions serverless, inférence embarquée/edge (par exemple, sur appareil).
* Expérience dans l'optimisation de la latence/débit dans les systèmes vocaux/temps réel (par exemple, pipelines vocaux à faible latence, diarisation des locuteurs, inférence en streaming).
* Expérience avec les infrastructures cloud (AWS, GCP, Azure) et les infrastructures ML/AI.
* Expérience avec d'autres langages comme le C++ (pour l'intégration ou l'interface avec des bibliothèques audio/vocales de bas niveau).
* Connaissance des concepts de traitement du signal audio : extraction de caractéristiques (MFCC, spectrogrammes), banques de filtres, pipelines audio, robustesse au bruit, streaming audio en temps réel.
* Connaissance de la compression/quantification/élagage des modèles, ou de l'accélération matérielle (GPU/TPU, inférence sur appareil).
* Publications ou contributions open-source dans le domaine de l'IA vocale/ML, ou expérience avec les workflows de recherche vers la production.
* Connaissance de l'orchestration de conteneurs (Kubernetes), de l'observabilité/monitoring (Prometheus, Grafana), des tests A/B de modèles.
Qualifications minimales / Niveaux d'expérience
* Master en informatique, ingénierie, mathématiques appliquées ou domaine connexe (ou expérience équivalente).
* Minimum 5 ans d'expérience pertinente en machine learning/IA, et au moins 3 ans de déploiement de ML en production, en particulier dans les systèmes vocaux/audio.
* Projets démontrant l'utilisation de Python + Rust en environnement de production ou quasi-production (ou solide expérience système avec Rust + ML en Python).
* Historique prouvé de déploiement de modèles ML en production, de leur maintenance, de la surveillance des performances et de leur itération.
* Expérience préalable dans des environnements conteneurisés et l'automatisation de CI/CD pour les pipelines ML.
💚 Ce que nous offrons
Avantages :
* Package de rémunération compétitif avec un salaire attractif et des BSPCE (ESOP français).
* Assurance santé premium Alan.
* Remboursement intégral des frais de transport.
* 5 semaines de congés payés + 10 jours de RTT.
Environnement de travail :
* Bureaux flambant neufs et premium à La Maison dans le centre de Paris (hub de Motier Ventures) — un espace inspirant conçu pour les startups en forte croissance.
* Flexibilité hybride — Travaillez à distance jusqu'à 3 jours par semaine tout en restant connecté à l'équipe.
* Équipements et infrastructures haut de gamme — Tout ce dont vous avez besoin pour faire votre meilleur travail.
Croissance et impact :
* Travailler avec des chercheurs en IA de classe mondiale — Collaborez directement avec d'anciens scientifiques du CNRS, pionniers de la diarisation des locuteurs, avec accès au supercalculateur Jean Zay pour entraîner des modèles à l'état de l'art.
* Relever des défis techniques de pointe — Optimiser le traitement vocal en temps réel à grande échelle, répondre à des exigences de latence inférieures à 100 ms, et travailler sur des problèmes que peu d'équipes dans le monde résolvent.
* Maîtrise rare des deux stacks — Développez une expertise à la fois dans l'écosystème ML Python et dans la programmation système Rust — des compétences très recherchées dans les infrastructures IA.
* Impact global immédiat — Votre code sert plus de 140 000 développeurs et alimente des applications vocales utilisées par des millions de personnes dans la transcription, les centres d'appels, le doublage et les agents vocaux.
* Construire l'infrastructure ML de zéro — Définir les pipelines d'entraînement, les workflows de déploiement et l'architecture de production en tant que l'un de nos premiers ingénieurs ML.
* Faire le pont entre la recherche et la production — Transformer des percées de recherche en systèmes scalables, améliorant directement la précision des modèles, la latence et l'efficacité des coûts.
* Opportunités de croissance — Évoluez vers des rôles de leadership technique senior, spécialisez-vous dans les infrastructures ML ou passez à la recherche en fonction de vos intérêts et de vos performances.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.