Filiale du Groupe EDF, Datanumia, expert des services numériques au service de la transition énergétique met la valorisation des données au coeur de sa stratégie de croissance.
Au sein de l'équipe Data regroupant les Data Engineers, Data Analysts et Data Scientists, vous serez au carrefour des métiers de l'entreprise :
- Product Management
- Marketing / avant-vente
- Innovation
- UX / design
- Equipes de développement
Vous aurez accès à des données de consommation et de pilotage d'équipement. Ces données vous seront mises à disposition sur une plateforme de type datalake/data analytics dans le cloud. Votre rôle sera de faire en sorte que Datanumia tire de la valeur de la connaissance de ces données et de leur utilisation pour enrichir nos produits via la production d'algorithmes.
Le contexte du sujet :
Nos Produits permettent d'accompagner les utilisateurs à agir pour optimiser leurs usages énergétiques grâce à des analyses de leurs données de consommation.
De nombreuses fonctionnalités s'appuient directement sur les données de consommation et leur prévision.
Fiabiliser nos moteurs de prévision de consommation est essentiel pour garantir la pertinence des fonctionnalités qui les exploite et assurer notre promesse produit.
Votre problématique :
Vous avez à disposition des données de consommation et vous devrez travailler sur un modèle de prévision de consommation qui sera directement utilisé dans les Produits.
Vos objectifs :
- Déterminer les applications possibles des modèles de prévisions et déterminer celui à plus haute valeur ajoutée
- Choisir un périmètre de travail précis
- Choisir une réponse algorithmique appropriée
- Mettre à disposition un livrable prêt pour la production respectant nos standards de développement
Vos tâches :
Prise en main du cas d'usage et de l'environnement technique
- Echange avec les équipes métiers et data science pour comprendre les enjeux autour de la problématique algorithmique et son utilisation prévue dans les fonctionnalités Produits
- Exploration des métriques clés associées à la qualité de donnée
- Accès aux outils et données qui seront utilisés
Réalisation des études et développement
- Analyses exploratoires via notebooks ou outils de datavisualisation.
- Conception et entraînement des modèles, création de features, évaluations et ablations.
- Définir l'interface d'utilisation de l'algorithme pour l'inférence
Mettre à disposition un livrable prêt pour la production respectant nos standards de développement
- Orchestration des pipelines pour préparation, inférence, évaluation et logging.
- Évaluation multi-critères : métriques quantitatives, notations qualitatives, coûts/latences, explicabilité.
- Itérations basées sur l'analyse d'erreurs, cas limites et robustesse.
- Pré-industrialisation : packaging, CI/CD, suivi d'expériences, monitoring et guardrails.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.