Descriptif du poste
Chez My Job Glasses, nous construisons des produits à impact pour aider chacun à faire les bons choix d’orientation et de carrière.
Dans ce cadre, nous lançons Immersion, un projet stratégique mené avec Mistral AI et Bpifrance, visant à créer une banque de vidéos intelligentes, enrichies et structurées grâce à l’IA.
Ce projet marque un changement d’échelle majeur pour la Data chez MJG :
* traitement de volumes importants de vidéos et d’audios,
* structuration de pipelines data robustes et scalables,
* et plus largement, mise à plat et fiabilisation de l’organisation data globale de l’entreprise.
Nous créons donc un poste de Data Engineer Senior, avec un double enjeu :
1. Réussir le projet Immersion, en lien étroit avec nos partenaires (Deloitte, AWS).
2. Structurer durablement l’infrastructure data de My Job Glasses, en collaboration avec le Data Analyst et les équipes produit & tech.
Rattaché(e) au CPTO, tu rejoins une équipe en construction, avec un rôle clé dans les choix d’architecture et la mise en œuvre opérationnelle.
Le poste est résolument hands-on, avec une vraie latitude pour proposer, structurer et faire évoluer l’existant.
Tes principales missions :
Concevoir et opérer les pipelines de données
* Data ingestion
Collecter, extraire et ingérer des données depuis différentes sources (bases de données, APIs, logs, flux externes).
Cas Immersion : récupération et ingestion de vidéos et d’audios.
* Data transformation
Nettoyer, transformer et structurer les données brutes pour les rendre exploitables.
Cas Immersion : découpage en chunks, transcription, analyse sémantique des segments.
* Data storage
Concevoir et maintenir les solutions de stockage (data lake, data warehouse, bases de données).
Cas Immersion : stockage S3 et alimentation d’un catalogue structuré de segments.
* Data modeling
Définir et maintenir les modèles de données, schémas et dictionnaires de données à l’échelle de l’entreprise.
Cas Immersion : définition du vocabulaire et des modèles data communs.
* Data pipeline development
Construire des pipelines automatisés, monitorés et fiables pour assurer un traitement fluide des données.
Cas Immersion : reprise et évolution des pipelines développés avec Deloitte.
Garantir la qualité, la sécurité et la performance
* Mettre en place des contrôles de qualité des données et des outils de monitoring.
* Assurer la sécurité des données et la conformité avec les exigences réglementaires (RGPD).
* Optimiser les pipelines et les systèmes de stockage en termes de performance, scalabilité et coûts.
Contribuer à la structuration de la Data chez MJG
* Évaluer et faire évoluer les pipelines existants sur les produits My Job Glasses.
* Travailler main dans la main avec le Data Analyst, les équipes Produit, Tech et Data Science.
* Partager tes bonnes pratiques, documenter et jouer un rôle de mentor auprès de profils plus juniors.
🛠️ Stack technique
* Langages : SQL (incontournable), Python / JavaScript / Shell
* ETL / Orchestration : dbt
* Bases de données : PostgreSQL, MongoDB
* Cloud : AWS, GCP ou Azure
* Data Warehouse / Data Lake : BigQuery, Snowflake (ou équivalent)
* Data Viz : PowerBI, Metabase (ou équivalent)
* Data modeling : ER Model, Snowflake
* Bonnes pratiques : ETL / ELT, monitoring, documentation, qualité des données
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.