Rejoignez l'aventure Parrot ! En 2026, Parrot est à la recherche de talents passionné.es pour relever des défis technologiques de pointe. Ensemble, nous créerons des projets innovants, ambitieux, et à la hauteur des enjeux de demain. Vous aimez l'innovation, vous n'avez pas peur des défis ? Venez faire la différence aux côtés des femmes et des hommes de nos équipes ! Fondée en 1994 par Henri Seydoux, Parrot est aujourd'hui le leader européen des drones professionnels. Située au cœur de Paris, notre R&D réunit une équipe multiculturelle d'ingénieur(e)s, où chaque voix compte pour réinventer l'avenir des drones. Parrot exploite des bancs de test pour valider la conformité, la performance et la fiabilité de ses produits tout au long du cycle de développement et de production. Ces bancs génèrent quotidiennement un volume important de données : mesures physiques, signaux temporels, résultats de séquences de test, logs d'anomalies, paramètres environnementaux, verdicts pass/fail, etc. Une première couche d'analyse des logs est déjà en place et permet aujourd'hui d'assurer le suivi opérationnel courant. Cependant, le potentiel d'exploitation de ces données reste largement sous utilisé : les analyses actuelles se limitent à du reporting descriptif et ne permettent pas de détecter des tendances fines, d'identifier des corrélations entre paramètres, de repérer des dérives précoces ou de capitaliser sur l'historique complet des campagnes d'essais. L'objectif de ce stage est d' aller au-delà de l'analyse existante en approfondissant l'exploitation des données de bancs de test pour en extraire des insights à forte valeur ajoutée. À titre d'exemple, les besoins identifiés par les équipes incluent : Suivi de performance à chaque changement de version logicielle ou d'assemblage (Assy) — Mesurer automatiquement l'impact d'un changement de soft ou de configuration matérielle sur les résultats de test et détecter d'éventuelles régressions. Détection des outliers — Identifier automatiquement les valeurs aberrantes dans les mesures pour distinguer les anomalies produit des artefacts de test. Analyse des temps de test — Suivre et optimiser les durées de passage sur banc, détecter les anomalies de temps (tests anormalement longs ou courts) et identifier les leviers de gain de productivité. Détection du downtime — Repérer et quantifier les périodes d'indisponibilité des bancs de test pour alimenter le suivi de disponibilité et orienter les actions de maintenance. VOS MISSIONS : La mission principale du/de la stagiaire consiste à approfondir et enrichir l'analyse des données de bancs de test au-delà du périmètre existant, en développant de nouvelles analyses, de nouveaux indicateurs et de nouvelles visualisations dans Kibana, alimentées par des traitements Python et indexées dans Elasticsearch. Cela inclut notamment : Appropriation de l'existant — Comprendre l'analyse des logs déjà en place, identifier ses limites et définir avec les équipes R&D, Méthodes et Bancs de Test les axes d'approfondissement prioritaires. Analyse avancée en Python — Développer des scripts et notebooks Python pour réaliser des analyses statistiques approfondies sur les données de test. Enrichissement des données dans Elasticsearch — Indexer les résultats des analyses avancées dans Elasticsearch pour les rendre interrogeables et exploitables par l'ensemble des équipes. Proposition et mise en œuvre d'une solution de visualisation — Réaliser un benchmark des outils de visualisation adaptés au contexte (Kibana, Grafana, Streamlit, Dash, Power BI, Superset…), formuler une recommandation argumentée et mettre en œuvre la solution retenue pour créer des tableaux de bord avancés : suivi de tendances, alertes sur dérives, visualisations comparatives, drill-down par produit, lot ou campagne. Le/la stagiaire sera force de proposition sur le choix de l'outil le plus pertinent au regard des besoins des équipes, de la stack existante et de la maintenabilité à long terme. Identification d'insights et recommandations — Formuler des recommandations concrètes à destination de la R&D et des Méthodes : causes racines de défaillances récurrentes, pistes d'optimisation des séquences de test, signaux faibles de dégradation. Documentation et transfert — Documenter les méthodologies, les scripts développés et les dashboards créés pour garantir la pérennité et l'autonomie des équipes après le stage. Au cours de ce stage, vos responsabilités seront les suivantes : Prendre en charge l'approfondissement analytique sur un périmètre de bancs de test défini, en partant de l'analyse existante pour aller vers des exploitations à plus forte valeur ajoutée. Travailler en mode collaboratif avec les quatre équipes impliquées (R&D, Méthodes, Bancs de Test, Data), en s'adaptant aux contraintes et aux attentes de chacune. Garantir la fiabilité et la reproductibilité des analyses produites en documentant les hypothèses, les traitements appliqués et les limites identifiées. Présenter régulièrement les résultats et les avancées lors de revues transverses, en vulgarisant les résultats pour des interlocuteurs aux profils variés. Être force de proposition sur de nouveaux axes d'analyse ou des améliorations de la chaîne de traitement des données. VOTRE PROFIL : Vous êtes de formation école d' Ingénieur ou Master, de niveau Bac4/5. Les compétences attendues sur ce poste seront les suivantes : Python — Niveau intermédiaire à avancé pour l'analyse de données : manipulation de DataFrames (pandas), calculs numériques (numpy), visualisation (matplotlib, seaborn) et statistiques (scipy, statsmodels). Statistiques appliquées — Solide compréhension des statistiques descriptives, des tests d'hypothèses, des intervalles de confiance, des régressions et des méthodes de détection d'anomalies. Outils de data visualisation — Connaissance d'au moins un outil (Kibana, Grafana, Streamlit, Dash, Power BI, Superset…) permettant d'alimenter le benchmark et la recommandation attendus. Manipulation de fichiers de données — Aisance avec les formats courants : CSV, JSON, et les formats de logs spécifiques aux bancs de test. Jupyter Notebooks — Pratique des notebooks pour l'analyse exploratoire, la documentation des raisonnements et le partage des résultats avec les équipes. Les compétences appéciées seront les suivantes : Elasticsearch — Compréhension des concepts d'indexation, de mapping, de requêtes (Query DSL) et d'agrégations. Git — Versioning des scripts et notebooks pour assurer la traçabilité et la collaboration. Automatisation — Capacité à scripter des traitements récurrents pour alimenter Elasticsearch. API REST — Compréhension des appels API, utile pour interagir avec Elasticsearch et d'éventuelles sources de données complémentaires. Vous faites preuve d' autonomie, de curiosité et d' appétence pour le terrain. Vous avez un esprit de synthèse et faites preuve de rigueur et de précision. Vous maîtrisez le français et l' anglais. CE QUE NOUS PROPOSONS : Une intégration au cœur d ’une équipe de passionné(e)s. Des projets techniques à la hauteur de vos ambitions. Des responsabilités pour chacun(e), l’opportunité pour toutes et tous d’avoir un impact dans votre travail, jeunes diplômés ou profils expérimentés. Une ambiance technophile et multiculturelle. Une culture d’entreprise sincèrement guidée par les principes d’inclusion, d’équité et de diversité. Un cadre de travail unique au cœur de Paris. Un cadre social performant et adapté .
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.