Nous sommes actuellement à la recherche de notre futur.e R&D Data Scientist pour rejoindre notre département R&D, plus particulièrement notre équipe Data Science & AI Innovation.Le pote est situé au VIC (Verkor Innovation Center), à Grenoble.
En tant que tel.le, vous avez pour mission de transformer les données en informations exploitables, en prévisions et en modèles d'aide à la décision qui aident l'entreprise à réduire les incertitudes, à améliorer ses performances et à optimiser la prise de décision. Votre rôle consiste principalement à cerner les enjeux métier, à les traduire en questions analytiques et à élaborer des solutions fondées sur les données.
Missions principales :
* Collaborer avec les opérateurs et les techniciens de production/qualité pour cerner les objectifs, les contraintes et les besoins décisionnels
* Transformer les questions métier en problèmes analytiques et de data science
* Définir des indicateurs de performance et des critères d'évaluation alignés sur les résultats opérationnels
* Analyser et explorer les données structurées et non structurées afin d'identifier des modèles, des tendances et des anomalies
* Mettre en place des workflows d'automatisation prêts pour la production
* Évaluer la qualité, l'exhaustivité, les biais et les limites des données
* Identifier les sources de données supplémentaires nécessaires pour améliorer les analyses ou les modèles
* Effectuer la transformation des données à des fins de modélisation
* Collaborer avec les ingénieurs data pour opérationnaliser la préparation des données lorsque cela est nécessaire.
* Développement et validation de modèles
* Interpréter les résultats des modèles et les conclusions analytiques en termes métier
* Communiquer clairement les conclusions aux parties prenantes non techniques
* Documenter les hypothèses, les limites et les risques du modèle
Requirements :
* Master ou doctorat en science des données, mathématiques appliquées ou statistiques
* Minimum de 5 ans d'expérience sur un métier similaire
* La maîtrise de l'anglais et du français est obligatoire
* Expérience dans le traitement d'ensembles de données à grande échelle en milieu industriel
* Solides bases en algèbre linéaire, calcul différentiel et intégral, probabilités et statistiques
* Bonne compréhension des concepts liés aux systèmes distribués, au partitionnement des données et au traitement parallèle
* Expérience pratique de l'utilisation de Databricks pour l'exploration des données, l'analyse, l'ingénierie des caractéristiques et l'entraînement de modèles
* Maîtrise approfondie d'Apache Spark (DataFrames, SQL, concepts MLlib) pour le traitement de données à grande échelle, avec une expérience pratique de l'entraînement de modèles distribués à l'aide de PyTorch ou TensorFlow.
* Notebooks Databricks (Python/SQL) · Maîtrise approfondie de Pandas et Numpy pour l'exploration, l'ingénierie des caractéristiques et les workflows analytiques
* Compréhension des besoins des utilisateurs, des facteurs de valeur et des résultats commerciaux
* Capacité à traduire des problèmes vagues en questions analytiques structurées.
* Expérience de travail dans des environnements axés sur les produits
PIc11013d5b1ff-30511-40444741
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.