Être militaire, c’est servir l’État, au sein des armées, en portant l’uniforme. Cela implique discipline, disponibilité et loyauté. Le sens de l’adaptation et le goût de l’effort sont des qualités indispensables. Être officier, c’est être en situation de responsabilité, en particulier auprès du personnel placé sous ses ordres. Cela suppose d’avoir le sens de l’humain et une certaine forme d’exigence vis-à-vis de soi-même. Escadron des systèmes d’information opérationnels et de cyberdéfense Mont-de-Marsan Les missions de l’Escadron des systèmes d’information opérationnels et de cyberdéfense 62.430 s’articulent autour de 4 pôles : la réalisation de systèmes d’information opérationnels, y compris embarqués sur aéronef, le soutien de systèmes d’information opérationnels déployés sur les théâtres d’opération, la cyberdéfense, et la valorisation des données Air par une approche orientée Big Data. Vos missions regrouperont : Concevoir et maintenir des pipelines d’ingestion et de transformation de données à partir de sources hétérogènes ; Contribuer à la structuration, à l’alimentation et à l’évolution des datalakes et datamarts, depuis les données brutes jusqu’aux jeux de données exploitables ; Assurer la qualité, la traçabilité et la fiabilité des données tout au long de leur cycle de vie ; Participer à l’industrialisation et à l’exploitation des flux de données dans un environnement cloud on-premise sécurisé ; Contribuer au développement d’application Big Data et data science ; Promouvoir les pratiques DevOps et accompagner le déploiement des applications ; Travailler en étroite collaboration avec les équipes d’architecture, de gouvernance et de valorisation de la donnée. Conditions Particulières : Vous justifiez d’une expérience professionnelle dans les métiers du data engineering et de l’accès à la donnée. Diplôme - Formation : Vous justifiez d’un bac5 ou équivalent dans le domaine de l’informatique, des systèmes d’information ou de la donnée. COMPÉTENCES SPÉCIFIQUES REQUISES : Conception et mise en œuvre de pipelines de données à l’aide d’outils d’ingestion et de streaming (ex. Apache NiFi, Kafka) ; Programmation Python, Java ou Scala Manipulation et stockage de données sur des solutions compatibles S3, et compréhension des formats de tables analytiques modernes (ex. Apache Iceberg) ; Utilisation de frameworks de traitement de données batch et streaming (ex. Apache Spark, Apache Flink) ; Exploitation de moteurs de requêtes distribuées pour l’accès aux données et les datamarts (ex. Trino) ; Intérêt pour le déploiement de code applicatif (ex. Ansible, Terraform, K8S) Sensibilité aux enjeux de gouvernance et d’observabilité des plateformes data, incluant l’usage d’outils de catalogage et de supervision (Prometheus / Grafana). QUALITÉS RECHERCHÉES : Vous êtes organisé·e, rigoureux·se et autonome ; Vous appréciez le travail en équipe et la collaboration transverse ; Vous faites preuve de curiosité, d’adaptabilité et d’esprit d’analyse. RECRUTEMENT : Grade défini selon l’expérience et/ou les diplômes détenus.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.