Nous reccherchons un Ingénieur IA & Sécurité confirmé de 8 ans d'expérience minimum
Spécialités technologiques
Intelligence artificielle
Open Source
AI
Monitoring
IA generative
Compétences Technologiques et outils obligatoires :
Docker
AWS
genai
CI/CD
Python
GCP
Méthodes / Normes : ISO
Anglais courant (écrit et parlé)
Vos missions
Description et livrables de la prestation
Contexte et mission générale
Anglais courant (écrit et parlé)
Cette mission s’inscrit dans le cadre d’un programme d’ingénierie et de sécurisation des systèmes d’intelligence artificielle générative et agentique.
L’objectif est de tester, évaluer et intégrer des garde-fous (“AI guardrails”) destinés à renforcer la fiabilité, la conformité et la sécurité des modèles de langage (LLMs) et des agents IA.
Le poste s’adresse à un profil confirmé (jusqu’à 6 ans d’expérience) en ingénierie IA, sécurité des modèles et MLOps, capable d’évoluer dans un environnement international et collaboratif, à la croisée de la technique, de la recherche et de la gouvernance IA.
Responsabilités principales
1. Évaluation et tests de solutions de garde-fous IA
- Identifier et évaluer des solutions de sécurité pour modèles LLM et applications agentiques (open source et commerciales).
- Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous.
- Concevoir et exécuter des scénarios d’attaques adversariaux (prompt injection, exfiltration de données, jailbreaks, contournement de filtres).
- Analyser les résultats des tests et produire des rapports d’évaluation détaillés : précision, compatibilité, facilité d’intégration.
- Assurer le monitoring des performances et de la gestion mémoire des modèles testés.
2. Intégration et industrialisation dans les environnements IA
- Concevoir des blueprints d’intégration pour incorporer les garde-fous dans les pipelines IA et stacks MLOps existants.
- Travailler à l’intégration de ces solutions dans les workflows LLM, RAG et agentiques, en s’appuyant sur les plateformes cloud (Azure, AWS, GCP).
- Collaborer avec les équipes de sécurité, de conformité et d’ingénierie pour définir des indicateurs de sécurité mesurables et des seuils de tolérance.
- Garantir la compatibilité des solutions avec les frameworks et technologies Asiatech AI.
- Contribuer à la documentation et à la mise en œuvre de pratiques d’IA responsable conformes aux standards européens (AI Act, NIST, ISO).
3. Partage de connaissances et support transverse
- Animer des ateliers internes et sessions de sensibilisation à la sécurité des modèles IA.
- Contribuer à la rédaction de livrables techniques et whitepapers sur la sécurisation des systèmes génératifs.
- Assurer un rôle de référent technique sur les pratiques de test et d’évaluation de la robustesse des LLMs.
- Favoriser la diffusion des bonnes pratiques au sein des équipes Data, ML et Sécurité.
Livrables attendus
- Framework de test des garde-fous IA : outils automatisés de simulation d’attaques et de mesure de robustesse.
- Rapports d’évaluation technique : performance, latence, complexité d’intégration, fiabilité.
- Plans d’intégration (blueprints) : architectures de référence et bonnes pratiques d’implémentation dans les workflows LLM/RAG.
Documents de partage de connaissances : ateliers, documentation interne et publications techniques
Vos compétences
Compétences Techniques exigées :
Anglais courant (écrit et parlé)
- 7 années d'expérience minimum
Très bonne compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents.
- Solide expérience en sécurité des IA : garde-fous, filtrage de contenu, validation de prompts, détection d’exfiltration de données.
- Maîtrise des langages et outils : Python, Docker, CI/CD, monitoring, gestion de la mémoire, et services cloud IA (Azure, AWS, GCP).
- Expérience confirmée en tests adversariaux, évaluation de modèles et simulation d’attaques.
- Bonne compréhension des pratiques MLOps et des environnements d’industrialisation IA.
- Connaissance des cadres de gouvernance IA et des principes de Responsible AI (AI Act, NIST, ISO 42001).
-Rigueur scientifique et approche expérimentale des problématiques IA.
- Capacité à collaborer efficacement avec des équipes techniques, sécurité et conformité.
- Excellente communication écrite et orale, en anglais et en français.
- Autonomie, esprit analytique et goût pour l’innovation.
Profil recherché
- Ingénieur ou expert IA confirmé (jusqu’à 6 ans d’expérience), spécialisé en sécurité des modèles, MLOps ou IA générative.
- Expérience dans l’évaluation et le test de systèmes GenAI ou agentiques.
- Bonne compréhension des environnements cloud et de la gestion opérationnelle des pipelines IA.
- Capacité à intervenir sur des sujets mêlant R&D, sécurité, et gouvernance technologique.
Avantages
2 jours de télétrévail par semaine
ANDERSON RH est un cabinet spécialisé dans le conseil et le recrutement de Cadres Supérieurs et Cadres Dirigeants. Il a été créée dans le but de répondre à un besoin tant national et
international récurrent sans cesse croissant de Cadres Supérieurs et de Cadres
Dirigeants de haut niveau dans le secteur des technologies de l'information, de
l'intelligence artificielle et du digital.
Son siège social se trouve au centre d’affaires ECIFFICE au 66 Avenue des Champs
Elysées 75008 à Paris.
« La force de l’excellence est un atout pour tous » telle est la devise du cabinet.
ANDERSON RH a récemment dévoilé publiquement un plan d’expansion mondiale
décliné comme ci-dessous :
ANDERSON RH ambitionne de devenir un des acteurs mondiaux incontournables dans le Conseil et le recrutement de Cadres Supérieurs et Cadres Dirigeants.
Le cabinet à travers son déploiement mondial, entend mettre l’excellence au service des entreprises, des organisations, des institutions et des Etats.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.