Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances s'impose comme une référence en matière de freelancing par son expertise dans l'IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer Python Pandas (H / F) à Lyon, France.
Contexte :
Vous intégrerez une équipe Data chez un grand acteur du secteur des médias. Le projet vise à concevoir une interface interne unifiée permettant de piloter plusieurs bases de données de contenus multimédias. L’enjeu principal est de centraliser, structurer et fiabiliser les flux de données provenant de différentes sources internes via des pipelines automatisés et des outils modernes de traitement distribués.
Ce poste peut être en freelance, en pré-recrutement (CDI à la clé) ou en CDI.
Missions :
1. Concevoir, développer et maintenir les pipelines de données à l’aide de Python, Pandas et Apache Camel.
2. Assurer la collecte, la transformation, la structuration et le chargement de données issues de sources variées.
3. Optimiser les requêtes et les échanges de données sur les bases SQL Server et Snowflake.
4. Participer à l’architecture et au déploiement de solutions data dans le cloud AWS.
5. Assurer la qualité, la traçabilité et la robustesse des traitements de données dans un environnement distribué.
6. Collaborer avec les équipes produits et métiers pour comprendre les besoins d’accès, de modélisation et de visualisation des données.
7. Participer aux cérémonies Scrum (daily, sprint review, planning, rétrospective) et contribuer activement à la roadmap technique.
8. Documenter les flux, les transformations et les bonnes pratiques dans Confluence.
9. Proposer des améliorations pour optimiser les performances et automatiser les processus Data Engineering.
Profil candidat :
* Vous justifiez de 3 à 7 ans d’expérience en Data Engineering, dans des environnements complexes et distribués.
* Vous avez une solide maîtrise de Python, Pandas, SQL, et une expérience sur Snowflake est un atout.
* Vous avez déjà travaillé avec un cloud provider (AWS de préférence) et des outils de data pipeline (Apache Camel ou équivalent).
* Vous êtes rigoureux, organisé, et aimez optimiser les flux de données pour en garantir la performance.
* Vous appréciez le travail en équipe agile, êtes à l’aise avec les outils collaboratifs comme Jira et Confluence.
* Vous êtes basé à Lyon ou en capacité d’y intervenir partiellement (3 jours de télétravail / semaine).
* Aucun critère de diplôme formel requis : votre expertise technique et vos projets parlent pour vous.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.