Description du poste
Titre du poste
Ingénieur cybersécurité - IA H/F
Contrat
Stage
Description de l'équipe
Le poste est à pourvoir au sein de la R&D IA-TL ( IA & Technologies Logicielles).
IA-TL fait partie de la R&T, et sa mission est de fournir aux R&D, pour le siège français et les sites de R&D offshore, des services et outils visant à améliorer leur productivité et la qualité de leurs développements dans le domaine du Logiciel.
Description de la mission
Sujet :
Contexte:
L’adoption croissante des modèles d’IA générative (LLM, chatbots,
applications IA locales) expose à de nouvelles menaces: prompt injection,
fuite de données sensibles, attaques par empoisonnement, comportements
imprévus des agents autonomes, etc.
Afin de sécuriser nos projets internes et fournir un cadre clair aux auditeurs
(pentesters), développeurs et architectes AI, l’objectif du stage est de :
· Établir une procédure d’audit IA pour évaluer la sécurité des
chatbots et outils IA déployés en local.
· Construire un guide sécurité corporate définissant les exigences
minimales que tout projet IA doit respecter.
· S’appuyer sur les deux référentiels majeurs : MITRE ATLAS Matrix
et OWASP Top 10 for LLM Applications 2025.
Objectifs du stage
1. Réaliser un état de l’art des menaces et vulnérabilités IA (LLM, RAG,
chatbots) via ATLAS et l’OWASP Top 10.
2. Élaborer une méthodologie d’audit IA adaptée aux pentests internes.
3. Développer des scénarios d’attaques représentatifs (prompt injection,
fuite de contexte système, empoisonnement de données,
surconsommation de ressources, etc.).
4. Concevoir un guide de sécurité IA corporate destiné aux
développeurs et architectes.
5. Proposer un processus de mise à jour continue (veille, validation,
diffusion interne).
Missions
Phase 1 — Étude et cadrage
· Analyse approfondie des menaces selon MITR ATLAS (techniques et
tactiques adverses IA).
· Analyse des vulnérabilités selon l’OWASP Top 10 LLM 2025 (Prompt
Injection, Sensitive Data Disclosure, Model Poisoning, etc.).
· Mapping des menaces ATLAS ↔ OWASP LLM Top 10.
· Benchmark d’outils d’évaluation/adversarial testing.
Phase 2 — Méthodologie d’audit IA
· Définition d’un canevas d’audit pour chatbots IA et plateformes
locales. Mise en place de tests types pour pentesters (exemples : extraction du
system prompt, injection indirecte, RAG poisoning, attaques
multimodales).
· Rédaction de fiches pratiques d’audit (objectifs, prérequis, étapes,
preuves attendues).
Phase 3 — Guide sécurité corporate IA
· Rédaction d’un référentiel interne de sécurité IA : exigences
minimales, bonnes pratiques, contrôles obligatoires.
· Ciblage développeurs, architectes et équipes produit.
· Organisation par thématiques (gestion des prompts, sécurité des
données, intégration CI/CD, monitoring & logging, gouvernance).
Phase 4 — Validation et transfert
· Expérimentation du guide sur un ou deux projets IA internes.
· Recueil de feedback des pentesters et équipes AI.
· Ajustements et finalisation.
· Documentation et transfert de compétences.
Profil recherché :
Formation :
étudiant(e) en dernière année, école d’ingénieur ou
Master en cybersécurité, IA, ou systèmes d’information.
· Compétences techniques :
o Connaissances en IA (LLM, RAG, NLP).
o Bonnes bases en cybersécurité offensive/défensive.
o Maîtrise des environnements Linux & Docker.
o Pratique de Python pour scripting/tests.
· Compétences sécurité : compréhension des attaques type injection,
exfiltration, supply chain, etc.
· Qualités : esprit analytique, autonomie, rigueur, capacité de
vulgarisation, force de proposition.
Sagemcom est une entreprise handi-accueillante.
Ce que vous trouverez chez Sagemcom :
Un cadre de travail stimulant dans une entreprise internationale et engagée
Un management de proximité et une grande autonomie dans les missions
CE, conciergerie, coiffeur, et restaurant d’entreprise
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.