Topic description
Pourquoi faire confiance à l'intelligence artificielle (IA) en science et au-delà, dont les modèles d'IA sont souvent opaques ? Une réponse possible est que l'IA est fiable. C'est la réponse du fiabilisme, une position bien établie en épistémologie (Durán & Formanek, ). De fait, avec l'utilisation croissante de l'IA en science, la fiabilité de ses méthodes et pratiques est devenue un enjeu central. Les différents domaines d'application de l'IA diffèrent dans leur conception et leur évaluation de la fiabilité, ainsi que dans les normes scientifiques qu'ils utilisent.
Ce projet de doctorat vise à explorer les défis épistémologiques liés à la fiabilité des méthodes d'IA en reliant les analyses existantes sur la fiabilité des pratiques informatiques, les études scientifiques sur l'évaluation des méthodes d'IA et les débats récents en épistémologie sur le fiabilisme.
Cette recherche devrait
- contribuer à une meilleure compréhension des fondements épistémologiques de la fiabilité de l'IA ;
- Contribuer à clarifier les conditions dans lesquelles on peut faire confiance aux systèmes d'IA pour produire des résultats épistémiquement justifiés par différents types d'utilisateurs ;
- Éclairer l'élaboration de règles d'intégrité de la recherche propres à chaque communauté afin de guider le développement d'une science basée sur l'IA plus fiable, transparente et éthique, tant en recherche fondamentale qu'appliquée ;
- Apporter des éclairages sur la question de savoir si et où l'intervention et la supervision humaines peuvent garantir le bon fonctionnement des méthodes basées sur l'IA et clarifier le rôle des humains dans cet optique ;
- Fournir des outils unificateurs pour relier les enjeux épistémologiques et éthiques liés à l'utilisation des méthodes basées sur l'IA et à leur fiabilité.
Les questions ciblées peuvent inclure :
- Comment la théorie épistémologique du fiabilisme et sa version conséquentialiste, peuvent-elle éclairer notre compréhension de la fiabilité de l'IA ?
- Dans quelle mesure fiabilisme et conséquentialisme reuiqèrent-ils une analyse renouvelée dans le cadre de l'IA ? - Quel est l'impact de l'IA sur la fiabilité des recherches les utilisant ?
- Quels types d'opacité épistémique sont impliqués dans les méthodes d'IA ? Sont-ils spécifiques à ces méthodes et comment peuvent-ils être conceptualisés ?
- Comment la fiabilité des méthodes basées sur l'IA se compare-t-elle à d'autres méthodes empiriques, notamment l'utilisation des big data ?
- Dans quelle mesure la fiabilité des pratiques scientifiques basées sur l'IA dépend-elle des caractéristiques de l'environnement d'utilisation ?
- Les questions épistémologiques concernant les méthodes basées sur l'IA et leur fiabilité sont-elles générales ? Ou varient-elles significativement selon les domaines, les contextes épistémiques et les types de pratiques concernées ?
La littérature et les méthodes initiales peuvent inclure :
- la philosophie des sciences dominante ; l'épistémologie analytique ;
- la clarification conceptuelle ; les interprétations formelles des résultats ; les études de cas, en particulier celles comparant les méthodes basées sur l'IA et d'autres méthodes informatiques.
Le projet de doctorat sélectionnera certaines de ces questions et y répondra. Nous prévoyons les étapes suivantes :
- Recenser les cas pertinents permettant d'analyser les facteurs contribuant à la (non)-fiabilité des IA.
- Analyser la littérature philosophique existante sur le fiabilisme, la fiabilité des méthodes de calcul et la littérature scientifique spécifique relative à la fiabilité des IA.
- Synthétiser la littérature scientifique et les problèmes rencontrés par le fiabilisme et le conséquentialisme épistémique dans ce cadre
- Tirer des conclusions et discuter des normes relatives à la conception des IA, aux règles de bonnes pratiques et de sécurité
- Analyser dans quelle mesure le fiabilisme peut constituer un cadre unificateur à des fins éthiques et épistémologiques.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Why should we trust artificial intelligence (AI) in science and beyond, although AI models are highly opaque? A possible answer is that AI is highly reliable. This, at least, is the answer of reliabilism, a well-known position in epistemology (Durán & Formanek ). As a matter of fact, with the increasing use of AI in science, the reliability of AI-based methods and practices has become a central issue. Still, it seems that various fields in which AI is applied differ in how they conceptualize reliability, assess reliability, and which scientific norms they use to evaluate AI. This PhD project aims to explore the epistemological challenges related to the reliability of AI-based methods by bridging existing analyses associated with the reliability of computational practices, scientific studies concerning the assessment of AI-based methods, and recent discussions in epistemology concerning reliabilism and its fruitfulness.
This research is expected to
- contribute to a deeper understanding of the epistemological foundations of AI reliability;
- help to clarify the conditions under which AI systems can be trusted to generate epistemically justified outcomes by different types of users;
- inform the development of community-specific rules of research integrity to guide the development of AI-based science that are more reliable, transparent, and ethically sound, both within fundamental and applied science;
- provide insights about whether and where human intervention and human oversight can ensure that AI-based methods work properly and, more generally, clarify, both from a descriptive and normative perspective, the roles of humans in computational science;
- provide unifying conceptual tools to connect epistemological and ethical issues related to the use of AI-based methods and their reliability.
Target questions may include:
- How can the epistemological theory of reliabilism, particularly its processual and consequentialist version, inform our understanding of AI reliability?
- To what extent do the well-known problems that these theories meet call for a renewed analysis in the context of AI-based methods?
- How does the use of AI-based tools impact the reliability of the larger inquiries in which they are used?
- What epistemic types of opacity are involved in AI-based methods? Are they specific to AI methods, and how can they be conceptualized?
- How does the reliability of AI-based methods compare with that of other empirical methods, typically those based on big data?
- To what extent is the reliability of AI-based scientific practices based on cognitive, epistemic, technological, or contextual features of the environment in which they are used?
- Are the epistemological questions concerning AI-based methods and their reliability general? Or do they significantly vary across fields, epistemic contexts, and types of practices involved?
Seed literature and methods may involve
- mainstream philosophy of science; analytical epistemology;
- conceptual clarification; formal result interpretations; case studies, especially those comparing IA-based methods and other computational methods.
The PhD project will select some of these questions and answer them. We anticipate the following stages:
- Survey salient cases in which the factors that contribute to the (non)-reliability AIs can be analyzed
- Analyze the existing philosophical literature about reliabilism, the reliability of computational methods, and the specific scientific literature about the reliability of AIs
- Bringing together the scientific literature and the problems met by reliabilism (e.g., generality problem, conceptual issues related to epistemic consequentialism)
- Draw consequences and discuss norms concerning the designs of AI, rules of good practices, and safety rules for users.
- Analyze to what extent reliabilism may be a unifying account for ethical and epistemological purposes.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Début de la thèse : 01/10/
Funding category
Funding further details
Financement d'un établissement public Français
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.