Stage : Propagation automatique de labels dans des vidéos F/H Détail de l'offre Informations générales Entité de rattachement Safran est un groupe international de haute technologie opérant dans les domaines de l'aéronautique (propulsion, équipements et intérieurs), de l'espace et de la défense. Sa mission : contribuer durablement à un monde plus sûr, où le transport aérien devient toujours plus respectueux de l'environnement, plus confortable et plus accessible. Implanté sur tous les continents, le Groupe emploie 100 000 collaborateurs pour un chiffre d'affaires de 27,3 milliards d'euros en 2024, et occupe, seul ou en partenariat, des positions de premier plan mondial ou européen sur ses marchés. Safran est la 2ème entreprise du secteur aéronautique et défense du classement « World's Best Companies 2024 » du magazine TIME. Parce que nous sommes persuadés que chaque talent compte, nous valorisons et encourageons les candidatures de personnes en situation de handicap pour nos opportunités d'emploi Référence 2025-185303 -164974 Description du poste Intitulé du poste Stage : Propagation automatique de labels dans des vidéos F/H Type contrat Stage Durée du contrat 6 mois Statut (CSP) Etudiant Temps de travail Temps complet Parlons de votre future mission Safran est un groupe international de haute technologie, équipementier de premier rang dans l'aéronautique, le spatial et la défense. Ayant une activité à forte valeur ajoutée, Safran place un effort fondamental dans la Recherche et Technologie (R&T). A ce titre, Safran Tech regroupe les activités R&T de Safran, autour de plusieurs plateformes dédiées aux innovations pour la fabrication additive, la fonderie, les matériaux composites, céramiques, et le digital. La plateforme Sciences et Technologies du Numérique (STN) a pour but de répondre aux enjeux stratégiques du Groupe dans le domaine du digital. Au sein de cette plateforme, l'unité de recherche CASPer (Confiance, Autonomie, Simulation, Perception) a en charge la conception algorithmique des briques d'autonomie et de vision artificielle pour les systèmes autonomes dans les domaines terrestres et aéronautiques. Parmi les thématiques traitées dans l'unité de recherche, la segmentation sémantique d'images revêt une importance fondamentale pour la compréhension automatique de l'environnement. Cette tâche est aujourd'hui typiquement réalisée par des réseaux de neurones profonds. Les architectures actuellement les plus performantes ont cependant des coûts de calcul non négligeables, du fait de la taille des réseaux utilisés. Ces forts coûts de calcul peuvent se révéler un obstacle à l'inférence temps réel des algorithmes lors de leur embarquement sur plateforme cible. A ce titre, propager automatiquement les labels d'une image à une autre, en n'appelant plus le réseau profond que périodiquement, apparaît comme une voie pour alléger les calculs. Le stage proposé porte sur le développement de méthodes de propagation automatique de labels, appliquées à des vidéos prises par des drones. Le stage débutera par une recherche bibliographique qui permettra de constituer un état de l'art rédigé et de sélectionner les méthodes les plus pertinentes. La seconde phase du stage se concentrera sur l'implémentation des méthodes identifiées, et leurs tests sur des données réelles tirées de campagnes d'acquisition faites avec les drones de l'unité de recherche. Mais encore ? (avantages, spécificités, …) Lieu de travail : Votre lieu de travail sera situé à Safran Tech, Département des Sciences et Technologies du Numérique, 78114, Magny-Les-Hameaux. Références bibliographiques : Yang, L., Fan, Y., & Xu, N. (2019). Video instance segmentation. In Proceedings of the IEEE/CVF international conference on computer vision (pp. 5188-5197). Bertasius, G., & Torresani, L. (2020). Classifying, segmenting, and tracking object instances in video with mask propagation. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 9739-9748). Weng, Y., Han, M., He, H., Li, M., Yao, L., Chang, X., & Zhuang, B. (2023). Mask propagation for efficient video semantic segmentation. Advances in Neural Information Processing Systems, 36, 7170-7183. Parlons de vous Etudiant ou étudiante niveau M2 d'une grande école ou d'une université, vous possédez de fortes compétences en deep learning et traitement d'image. Vous faites preuve de curiosité et d'esprit d'initiative. Vous avez une bonne maîtrise de l'anglais scientifique. Mots-clés : deep learning, IA, traitement d'image Localisation du poste Localisation du poste Europe, France, Ile de France, YVELINES (78) Ville Rue des jeunes bois 78117 Châteaufort Critères candidat Niveau d'études min. requis BAC5 Niveau d'expérience min. requis Jeune diplômé-e/Première expérience Langues Anglais (Intermédiaire)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.