Dans ce contexte académique stimulant, nous nous intéresserons à la problématique de l'explicabilité des modèles d'intelligence artificielle qui transforment aujourd'hui de nombreux secteurs grâce aux modèles de langage, systèmes de recommandation et technologies avancées. Toutefois, les modèles d'apprentissage automatique modernes, comme les réseaux de neurones et les modèles d'ensemble, demeurent largement opaques, d'où leur qualification de boîtes noires. Cette opacité compromet la confiance des utilisateurs et s'avère problématique dans des domaines critiques (santé, finance, sécurité) où les erreurs peuvent être lourdes de conséquences.
L'Intelligence Artificielle Explicable (XAI) a ainsi émergé pour développer des méthodes d'explication des décisions d'IA. Cependant, les approches agnostiques populaires souffrent de limitations majeures : instabilité des explications face à des prédictions contradictoires, absence de garanties théoriques, et fragilité aux perturbations. Ces faiblesses les disqualifient pour les applications critiques. À l'inverse, les méthodes d'explications formelles offrent des garanties mathématiques rigoureuses adaptées aux contextes exigeants, mais rencontrent un obstacle majeur de scalabilité.
Cette thèse propose de développer des méthodes formelles scalables pour générer des explications locales robustes et interprétables pour les modèles d'apprentissage automatique opaques. Notre approche se structure autour de deux axes complémentaires : les explications abductives simplifiées ("Explications Lite") qui offrent un compromis entre rigueur formelle et scalabilité computationnelle, et l'approximation d'explications formelles de taille minimale respectant le principe du rasoir d'Occam. Cette thèse vise trois contributions centrales : démontrer la scalabilité des explications Lite pour traiter les modèles complexes avec des garanties formelles locales suffisantes, établir la capacité d'approximation à fournir des solutions de qualité avec des bornes théoriques garanties, et prouver la robustesse supérieure des méthodes proposées comparativement aux approches agnostiques existantes.
Notre méthodologie structure le développement d'explications formelles scalables en trois étapes complémentaires. Premièrement, les explications simplifiées exploitent l'encodage des modèles complexes pour effectuer des tests logiques partiels sur un échantillon représentatif. Deuxièmement, les techniques d'approximation surmontent la complexité calculatoire en garantissant des solutions proches de l'optimum théorique grâce à des méthodes d'optimisation locale. Troisièmement, l'intégration des préférences utilisateur permet de générer des explications personnalisées selon l'importance accordée à chaque caractéristique du modèle.
Contexte de travail
- Cette thèse se déroulera au sein du Laboratoire d'Informatique de Paris Nord (LIPN).
- UMR CNRS 7030, situé à l'Institut Galilée, 99 avenue Jean-Baptiste Clément, 93430 Villetaneuse.
- Ce laboratoire de recherche, unité mixte entre le CNRS et l'Université Sorbonne Paris Nord, est reconnu pour son expertise en intelligence artificielle et méthodes formelles.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.