Dans le cadre de la typologie IT-T – Data Scientist, les missions génériques associées incluent :
* Établir des scénarios permettant de comprendre et d'anticiper de futurs leviers métiers ou opérationnels pour l'entreprise.
* Réaliser tout le cycle de valorisation de la donnée :
* Choix et collecte des données.
* Analyse de la qualité des données et redressement.
* Préparation des données.
* Valorisation spécifique à la Data Science (analyse prédictive voire prescriptive, mise en place d'algorithmes d'apprentissage automatique ou profond, conception de data visualizations dynamiques, data storytelling, etc.).
* Appliquer des techniques statistiques, de text mining, d'analyse comportementale, de géolocalisation, etc., pour l'extraction et l'analyse d'informations issues de gisements de données (Big Data).
* Obtenir des données adéquates et trouver les sources de données pertinentes :
* Recommandations sur les bases de données à consolider, modifier, rapatrier, externaliser, internaliser.
* Conception de datamarts et potentiellement d'entrepôts de données (data warehouses).
* Évaluer la qualité et la richesse des données :
* Rassembler les données, les modéliser et en vérifier la véracité.
* Analyser les résultats et les intégrer dans le système d'information cible du métier.
* Traduire une problématique métier en problème mathématique/statistique et réciproquement.
* Comparer et évaluer différents modèles ou méthodes de calcul, en anticipant les avantages et inconvénients dans un environnement métier donné.
* Périmètre fonctionnel et responsabilités principales
2.1. Credit Risk Scoring
* Pour les équipes Risque / Validation :
* Concevoir et optimiser les scores d'octroi et de comportement en explorant des approches innovantes.
* Garantir la stabilité du coût du risque en entraînant et déployant ces solutions, et en assurant le monitoring de la dérive des modèles.
* Travailler en étroite collaboration avec les experts métiers et les équipes Risque.
2.2. AI Solutions (IA appliquée aux parcours clients)
* Optimiser l'expérience client en intégrant les modèles d'IA en temps réel sous forme d'API dans les parcours digitaux (scoring temps réel, personnalisation des offres de paiement, etc.).
* Participer à l'architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques de développement (Cloud, MLOps).
* Collaborer avec les équipes Produit et IT pour industrialiser les solutions (mise en production, supervision, conformité aux standards de l'entreprise).
2.3. GenAI (IA générative et agents)
* Prototyper et déployer en production des solutions d'IA générative sous forme d'agents (LLM, RAG, etc.) pour :
* Transformer les processus internes (Marketing, Audit, Risque, …).
* Améliorer la relation et le support client.
* Mettre en place des architectures « agentic » pour :
* Automatiser l'octroi d'offres de crédit (Risque).
* Automatiser des tâches complexes d'analyse documentaire.
* Faciliter l'interaction avec les clients.
* Évaluer, optimiser et monitorer les performances des agents (cohérence, diversité, usage de LLM as a Judge, etc.).
Profil candidat:
* Expertises techniques recherchées
3.1. Data Science & Machine Learning
* Solide expérience en modèles supervisés :
* Régression logistique.
* Modèles à arbres de décision.
* Modèles de Gradient Boosting (XGBoost / LightGBM).
* Connaissance et mise en œuvre d'approches explicables (SHAP, LIME, explainable AI) pour l'interprétabilité des modèles, notamment dans un contexte de risque.
* Pratique des modèles génératifs et des LLM :
* Utilisation de frameworks et API de LLM (OpenAI, HuggingFace, fine-tuning, etc.).
3.2. Écosystème Data Engineering & MLOps
* Excellente maîtrise du langage Python et de l'écosystème ML :
* Pandas, Scikit-learn.
* MLflow.
* Pydantic.
* LangChain, LangGraph.
* FastAPI.
* Bonnes pratiques de développement :
* Packaging, CI/CD, tests (pytest), feature stores.
* Mise en production de modèles :
* Déploiement de modèles sous forme d'API.
* Mise en place de pipelines automatisés (MLflow, GitHub Actions, Kubernetes, Docker).
* Monitoring et fiabilité :
* Suivi de la qualité des données, des performances et des métriques d'évaluation.
* Back testing.
* Suivi de la dérive de données / concept drift.
* Évaluation de systèmes RAG (RAGAS) et approches de type LLM as a Judge.
3.3. Outils & Cloud
* Environnement Cloud et data :
* Azure (dont Azure ML, Foundry).
* Databricks.
* pySpark.
* Outils collaboratifs et de gestion de code :
* Confluence, JIRA.
* Bitbucket, GitLab, Azure DevOps.
3.4. Compétences bonus
* Une connaissance technique de Snowflake est un plus.
* Une bonne compréhension des enjeux bancaires réglementaires (scoring, réglementation) est un plus.
* Profil recherché
* Expérience :
* 5 à 7 ans d'expérience.
* Parcours :
* Profil mixte Data Science + mise en production / MLOps.
* Positionnement technique et fonctionnel :
* À l'aise pour discuter aussi bien de modélisation ML que d'architecture du SI.
* Capacité à travailler avec de multiples métiers : Risque, Paiement, Digital, Fraude, Conformité, etc.
* Appétence et état d'esprit :
* Goût prononcé pour le delivery, l'expérimentation et les environnements où l'IA a un impact direct sur l'expérience client.
* Intérêt fort pour les solutions d'IA générative et les approches « agentic ».
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.