Vos missions en quelques mots Sujet de thèse : Déploiement Énergétiquement Efficace d'Applications dans le Continuum Edge-Réseau-Cloud Contexte et Motivation Le déploiement d'applications d'IA connaît un changement de paradigme avec l'avènement des réseaux 5G/6G, de l'Internet des Objets (IoT) et de l'informatique en périphérie (edge computing). Cette évolution permet de déployer des services à travers le continuum edge-réseau-cloud [1], en exploitant des ressources hétérogènes allant des appareils en périphérie (par exemple, smartphones, microcontrôleurs) aux centres de données dans le cloud [2, 3, 4]. Ce nouveau paradigme relève des défis critiques tels que la latence, la bande passante et l'efficacité énergétique, mais introduit également de nouvelles complexités en matière d'allocation des ressources, de déploiement des modèles et d'optimisation énergétique. Parallèlement, les modèles d'IA, en particulier les réseaux de neurones profonds, deviennent de plus en plus complexes, avec la consommation d'énergie et l'empreinte carbone qui émergent comme des préoccupations majeures. Par exemple, l'entraînement d'un seul grand modèle de langage peut émettre autant de CO₂ que cinq voitures sur leur durée de vie, et les tâches d'inférence contribuent de manière significative à l'utilisation d'énergie. Le projet CARECloud (PEPR CLOUD) vise explicitement à réduire l'impact environnemental des infrastructures cloud, ce qui rend ce sujet de thèse hautement pertinent pour les objectifs de durabilité nationale et mondiale. Objectifs Scientifiques Cette thèse vise à développer de nouvelles méthodes pour déployer des applications d'IA dans le continuum edge-réseau-cloud, en mettant l'accent sur la réduction de la consommation d'énergie tout en maintenant les performances des modèles. La recherche abordera certains des défis suivants : * Stratégies de Déploiement Énergétiquement Aware - Compression de Modèles : Étudier des techniques telles que la quantification, l'élagage (pruning) et la distillation de connaissances pour réduire l'empreinte computationnelle et mémoire des modèles d'apprentissage profond sans sacrifier leur précision [7, 9, 13]. - Systèmes en Cascade : Explorer des architectures à sortie anticipée (early-exit) et des inférences multi-étapes pour sélectionner dynamiquement le modèle le plus adapté (du plus léger au plus lourd) en fonction des contraintes en temps réel (par exemple, niveau de batterie, latence réseau) [10, 11]. - Apprentissage Fédéré : Étudier l'apprentissage fédéré (FL) comme un moyen de distribuer l'entraînement et l'inférence des modèles d'IA à travers les appareils en périphérie, réduisant ainsi le besoin de centralisation des données et les coûts énergétiques associés au transfert de données et au calcul dans le cloud. Le FL permet d'entraîner les modèles localement sur les appareils, en ne communiquant que les mises à jour des modèles (et non les données brutes), améliorant ainsi l'efficacité éne Voir plus sur le site emploi.cnrs.fr Profil recherché Contraintes et risques : Niveau d'études minimum requis Niveau Niveau 8 Doctorat/diplômes équivalents Spécialisation Formations générales Langues Français Seuil
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.