Topic description
Assurer la correction des systèmes critiques est essentiel, notamment dans les domaines où les défaillances ont un coût élevé. La vérification formelle traditionnelle est efficace pour les systèmes clos, mais elle présente des limites dans les environnements ouverts et multi-agents où les agents interagissent de manière stratégique. Alors que les logiques temporelles permettent de raisonner sur les stratégies des agents, elles ne capturent pas les interventions subtiles, comme le nudging, où un agent peut influencer le comportement d'un autre sans restreindre ses choix. Le nudging préserve l'autonomie en modifiant l'environnement décisionnel de manière à orienter le comportement de façon prévisible mais sans coercition.
Cette recherche vise à formaliser le nudging dans les systèmes multi-agents, en l'intégrant aux cadres de raisonnement stratégique et de révision des croyances. Elle étudiera également comment le nudging interagit avec la dynamique de confiance, en modélisant la manière dont les agents ajustent leurs stratégies en fonction de la confiance envers les intentions des autres. Le projet développera des modèles, des logiques, des algorithmes et des outils de vérification pour analyser ces interactions, offrant un cadre pour concevoir des systèmes multi-agents autonomes, fiables et éthiques. Les résultats attendus feront progresser la vérification formelle, le raisonnement stratégique et les applications pratiques dans les environnements multi-agents.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Ensuring the correctness of critical systems is essential, particularly in domains where failures carry high costs. Traditional model checking is effective for closed systems but faces limitations in open, multi-agent environments where agents interact strategically. While temporal logics enable reasoning about agent strategies, they do not capture subtle interventions, such as nudging, where one agent can influence another's behavior without restricting choices. Nudging preserves autonomy by modifying the decision environment in ways that steer behavior predictably but without coercion.
This research aims to formalize nudging within multi-agent systems, integrating it into strategic reasoning and belief revision frameworks. It will also examine how nudging interacts with trust dynamics, modeling how agents adjust strategies based on confidence in others' intentions. The project will develop models, logics, algorithms, and verification tools to analyze these interactions, providing a framework for designing ethical, autonomous, and trustworthy multi-agent systems. The expected outcomes will advance formal verification, strategic reasoning, and practical applications in multi-agent environments.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/
Funding category
Funding further details
Allocation doctorale AMX*Appel anticipé*Concours IPP ou école membre*
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.