Topic description
Cette thèse vise à concevoir des méthodes d'intelligence artificielle explicable pour l'optimisation combinatoire, en intégrant des mécanismes de rétroaction neuronale au sein des architectures de Neural Combinatorial Optimization (NCO). Si ces approches ont démontré leur efficacité pour résoudre des problèmes complexes tels que le VRP ou le TSP, leur caractère opaque limite leur adoption dans des contextes industriels critiques.
L'objectif est de développer des architectures capables non seulement de produire des solutions de haute qualité, mais également de fournir des explications interprétables sur les décisions prises. L'approche proposée repose sur l'introduction de boucles de rétroaction permettant au modèle de réévaluer et corriger ses décisions en cours d'inférence, améliorant ainsi la cohérence du raisonnement et la robustesse hors distribution.
Les contributions attendues incluent (i) un cadre théorique unifiant GNN et feedback alignment dans un contexte combinatoire, (ii) une architecture explicable produisant des signaux interprétables (attributions, trajectoires de correction), et (iii) une validation expérimentale sur des benchmarks standards et cas applicatifs en logistique et planification.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
This PhD aims to develop explainable artificial intelligence methods for combinatorial optimization by integrating neural feedback mechanisms into Neural Combinatorial Optimization (NCO) architectures. While these approaches have shown strong performance on problems such as VRP and TSP, their black-box nature limits their adoption in critical industrial applications.
The goal is to design models that not only produce high-quality solutions but also provide interpretable explanations of their decisions. The proposed approach introduces feedback loops enabling the model to iteratively refine its predictions, improving reasoning consistency and generalization.
Expected contributions include (i) a theoretical framework combining GNNs and feedback alignment for combinatorial problems, (ii) an explainable architecture providing interpretable signals, and (iii) experimental validation on benchmarks and real-world applications.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/
Funding category
Funding further details
Plan Investissement d'Avenir (Idex, Labex)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.