Missions
Les applicatifs sont de plus en plus exposées via des applications Web pour les utilisateurs humains ou via des API dans les communications machine à machine. Si elles sont mal conçues, elles peuvent devenir une cible privilégiée pour les attaquants et entraîner des pertes économiques sévères. Il est donc nécessaire de développer des solutions de gestion d’API intégrant la sécurité dès la conception. Cependant, quand bien même les utilisateurs seraient authentifiés au travers d’une méthode sûre, cela ne pourrait empêcher des actions frauduleuses de la part d’utilisateurs compromis. Nous nous proposons donc de détecter des comportements d’attaque de la part d’utilisateurs d’API ou de portails Web. En particulier, la détection d’anomalies pour la sécurisation des APIs est un domaine de recherche émergent. Nous disposons de peu de données concrètes d’attaques permettant de caractériser ces attaques. Une approche raisonnable est donc de s’appuyer sur ce qui est connu, c'est-à-dire, les requêtes d’usagers légitimes. Cependant, ces données sont sensibles car souvent générées par des humains et pouvant contenir des secrets. Par ailleurs, quand bien même nous disposerions de telles données, nous ne pouvons garantir l’absence de données d’attaques qui polluerait l’apprentissage d’un modèle de détection d’anomalies. Il est alors crucial de bien comprendre ce que l’on cherche à représenter et distinguer dans les comportements légitimes en concevant une représentation robuste, qu’un attaquant ne puisse facilement reproduire. Finalement, l’apprentissage sur un jeu de données a tendance à souffrir de surapprentissage, occultant l'occurrence d’attaques contradictoires (adversarial attacks) ou l’émergence de nouveaux comportements, qui peuvent occasionner de nombreux faux positifs. Plusieurs approches peuvent nous permettre de réduire ces faux positifs tels que l’apprentissage incrémental, l’apprentissage distribué et préservant la vie privée (comme l’apprentissage fédéré), l’apprentissage contrastif et d’autres modalités exploitant le problème de l’Open Set Recognition, et plus généralement Open World Machine Learning.
Activités
Afin de renforcer le respect de la vie privée des usagers, nous pourrons exploiter une approche d’apprentissage fédérée et déléguer la collecte et la détection locale aux clients de la solution API. Nous souhaitons également que notre approche soit robuste afin de minimiser le nombre de faux positifs qui peut exploser dans un environnement où les requêtes sont très nombreuses. Nous envisageons l’usage d’apprentissage contradictoire (adversarial ML) et de méthodes d’IA explicative (XAI), mais aussi d’Open Set Learning, pour réduire le taux de faux positifs.
Ces méthodes peuvent être plus ou moins coûteuses et induire des délais pouvant perturber un apprentissage fédéré.
1. Dans un premier temps, nous nous permettrons de réaliser un apprentissage hors ligne comme dans un système de détection d’intrusion classique, où les alertes sont traitées par un système de collecte d’événements et d’incidents de sécurité (SIEM).
2. Puis, dans un second temps, nous chercherons à optimiser notre chaîne d’apprentissage afin de réduire ces délais et fournir une détection proche du temps-réel, permettant la réaction. La réaction pourra être précise si nous sommes en capacité d’apprendre de nouvelles classes d’attaques.
La validation de la pertinence et de la faisabilité de l’approche fédérée (voire contrastive) se fera non seulement vis à vis de métriques habituelles de performance en matière de détection, mais également à l’aune des coûts induits par le déploiement distribué (passage à l’échelle), ainsi que par rapport aux clients finaux de la solution (préservation de la vie privée).
Formation
3. Doctorat ou PhD depuis moins de 3 ans
Compétences, connaissances et expériences indispensables
4. Expériences en IA ou machine learning (ML) appliquée à la cybersécurité, en particulier, la détection d’intrusion
5. Compétences en apprentissage fédéré (Federated Learning)
6. Anglais parlé, écrit
Compétences, connaissances et expériences souhaitables
7. Compétences en attaques antagonistes (Adversarial Attacks)
8. Compétences en IA explicable (XAI)
9. Compétences en apprentissage en monde ouvert (Open Set Learning)
10. Compétences en apprentissage contrastif (contrastive learning)
11. Connaissances en dérive conceptuelle (concept drift)
Capacités et aptitudes
12. Rigueur
13. Autonomie
14. Travail en équipe
Informations complémentaires et candidature
15. Date limite de candidature : 31/08/2025
16. Nature du contrat : CDD - 24 mois
17. Catégorie et métier du poste (usage interne): II - P, Post-doctorat ou A (fonction publique)
18. Localisation du poste: Palaiseau (91)
19. Les postes offerts au recrutement sont ouverts à toutes et tous avec, sur demande, des aménagements pour les candidats en situation de handicap
20. Emploi ouvert aux titulaires de la fonction publique et/ou aux contractuels
21. Conditions de travail : télétravail possible, restaurant et cafétéria sur site, accessibilité en transport en commun (avec participation de l'employeur) ou proche des axes routiers, association du personnel et association sportive sur le campus
22. Personnes à contacter : Gregory BLANC :
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.