La télédétection a démontré un potentiel considérable pour caractériser les propriétés chimiques et physiques de la surface terrestre, y compris des zones côtières. Plusieurs systèmes sont équipés de multiples capteurs d'imagerie aux spécifications complémentaires en termes de résolution (par exemple, Pléiades, PRISMA et Sentinel-2). La fusion d'images est une étape nécessaire pour obtenir une image présentant une résolution spatiale et spectrale optimale. La plupart des algorithmes de fusion d'images visent à générer une image à haute résolution (spatiale et spectrale) qui sera ensuite utilisée pour d'autres tâches en aval (par exemple, détection d'objets, classification de l'occupation du sol, détection de changements…). La plupart des algorithmes de fusion proposés dans la littérature reposent sur des hypothèses indépendantes de la tâche pour trouver le produit de fusion optimal, en utilisant des fonctionnelles énergétiques explicites ou en les apprenant implicitement à partir des données. Les protocoles de validation s'appuient généralement sur des stratégies permettant de pallier l'absence d'image de référence à la résolution cible, en utilisant des mesures standard de qualité d'image à basse résolution. Il existe une littérature abondante sur ces mesures, dont la plupart reposent sur l'hypothèse d'invariance d'échelle du processus de fusion, une hypothèse discutable.De plus, la corrélation entre ces métriques d'image et la tâche en aval n'a pas été étudiée en profondeur.
L'objectif de cette thèse est de proposer une approche alternative au processus de fusion d'images en considérant les différentes étapes de la chaîne de traitement – incluant l'acquisition d'images, la fusion elle-même, les tâches en aval et les métriques de validation – comme des processus ajustables incluant des paramètres apprenantes, dont les formes précises peuvent être optimisées en fonction d'un objectif spécifique.Cette approche vise non seulement à fournir une comparaison raisonnée entre les algorithmes de fusion, mais aussi à améliorer la qualité des performances des tâches en aval, en optimisant les éléments précédents de la chaîne de traitement. Ces paramètres peuvent être optimisés à l'aide de mesures conventionnelles de qualité d'image et/ou d'indicateurs basés sur les tâches. Cette vision unifiée de l'ensemble de la chaîne de traitement, telle un jumeau numérique de l'acquisition et du traitement opérationnels, est rendue possible par la démocratisation récente des outils de différenciation automatique (Pytorch, Tensorflow, JuliaDiff, JAX), et a été récemment utilisée dans de nombreux domaines scientifiques (voir par exemple l'initiative CLIMA pour la modélisation du climat global). L'un des objectifs de cette thèse est d'unifier la caractérisation des spécifications des capteurs, la conception des algorithmes de fusion et leur application aux tâches en aval, afin de caractériser l'impact des caractéristiques des capteurs sur la qualité des images fusionnées.
Contexte de travail
Le Gipsa-lab est un laboratoire de recherche mixte du CNRS, Grenoble-INP -UGA et de l’Université de Grenoble Alpes. Il est conventionné avec l’Inria et l’Observatoire des Sciences de l'Univers de Grenoble. Il mène des recherches théoriques et appliquées sur l’AUTOMATIQUE, le SIGNAL, les IMAGES, la PAROLE, la COGNITION, la ROBOTIQUE et l’APPRENTISSAGE.
Pluridisciplinaire et à l’interface entre l’humain, les mondes physiques et numériques, nos recherchent se confrontent à des mesures, des données, des observations provenant des systèmes physiques, physiologiques, cognitifs. Elles portent sur la conception de méthodologies et d’algorithmes de traitement et d’extraction de l’information, de décisions, d’actions et de communications viables, performants et compatibles avec la réalité physique et humaine. Nos travaux s’appuient sur des théories mathématiques et informatiques pour le développement de modèles et d’algorithmes, validés par des implémentations matérielles et logicielles.
En s’appuyant sur ses plateformes et ses partenariats, Gipsa-lab garde un lien constant avec des applications dans des domaines très variés : la santé, l’environnement, l’énergie, la géophysique, les systèmes embarqués, la mécatronique, les procédés et systèmes industriels, les télécommunications, les réseaux, les transports et véhicules, la sécurité et la sûreté de fonctionnement, l’interaction homme-machine, l’ingénierie linguistique, la physiologie et la biomécanique…
De part la nature de ses recherches, Gipsa-lab est en relation directe et constante avec le milieu économique et la société.
Son potentiel d’enseignants-chercheurs et chercheurs est investi dans la formation au niveau des universités et écoles d’ingénieurs du site grenoblois (Université Grenoble Alpes).
Gipsa-lab développe ses recherches au travers de 16 équipes ou thèmes organisés en 4 pôles :
• Automatique et Diagnostic (PAD)
• Science des Données (PSD)
• Parole et Cognition (PPC)
• Géométries, Apprentissage, Information et Algorithmes (GAIA).
Le personnel accompagnant la recherche (38 ingénieurs et techniciens) est réparti dans les services communs répartis au sein de 2 pôles :
• Le Pôle Administratif et Financier
• Le Pôle Technique
Gipsa-lab compte environ 150 permanents dont 70 enseignants-chercheurs et 41 chercheurs. Il accueille également des chercheurs invités, des post-doctorants.
Gipsa-lab encadre près de 150 thèses dont environ 50 nouvelles chaque année. Toutes les thèses effectuées au laboratoire sont financées et encadrées par des enseignants-chercheurs et chercheurs dont 50 titulaires d’une HDR.
Enfin, une soixantaine de stagiaires de Master vient chaque printemps grossir les rangs du laboratoire.
Le poste se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST), et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l'autorité compétente du MESR.
Contraintes et risques
NEANT
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.